BlueStore是Ceph的新存儲引擎,是社區版的默認配置。BlueStore性能數字不包含在我們當前的Micron Accelerated Ceph存儲解決方案 參考架構中,因為Red Hat Ceph 3.0目前不支持它。我在Ceph參考架構硬件上對社區版Ceph Luminous(12.2.4)進行了性能測試,並將結果與我們在此博客中在RHCS 3.0中實現的FileStore性能進行比較。
4KB隨機寫入IOPS性能提高18%,平均延遲降低15%,尾部延遲降低99.99%高達80%。使用BlueStore,在更高的隊列深度下,4KB隨機讀取性能更好。
該解決方案針對塊性能進行了優化。使用Linux中的Rados Block Driver進行隨機小塊測試,在2插槽存儲節點中使鉑級8168 Intel Purley處理器飽和。
每個存儲節點有10個驅動器,該架構具有232TB的可用存儲容量,可通過添加額外的1U存儲節點進行擴展。
參考設計 - 硬件
測試結果和分析
Ceph測試方法
Red Hat Ceph Storage 3.0(12.2.1)配置了FileStore,每個Micron 9200MAX NVMe SSD有2個OSD 。每個OSD使用20GB日志。
Ceph Luminous Community(12.2.4)配置了BlueStore,每個Micron 9200MAX NVMe SSD有2個OSD。RocksDB和WAL數據與數據存儲在同一分區中。
在這兩種配置中,每個存儲節點有10個驅動器,每個驅動器有2個OSD,總共80個OSD,可用容量為232TB。
測試的Ceph存儲池是使用8192個放置組和2x復制創建的。使用100個RBD圖像(每個75GB)測試性能,在2x復制池上提供7.5TB數據,總數據為15TB。
使用FIO對Rados Block Driver測量4KB隨機塊性能。我們在所有測試中都受CPU限制,即使每個存儲節點有2個Intel 8168 CPU。
RBD FIO 4KB隨機寫性能:FileStore與BlueStore
BlueStore的IOPS增加約18%,平均延遲減少約15%。
使用BlueStore,在更高的FIO客戶端數量下,Ceph的尾部延遲也大大減少。在100個客戶端,尾部延遲減少了4.3倍。在較低的客戶端數量下,BlueStore的尾部延遲高於FileStore,因為BlueStore正在推動更高的性能。
RBD FIO 4KB隨機讀取
FileStore和BlueStore之間的4KB隨機讀取性能相似。隊列深度為32時,IOPS增加了5%。
尾部延遲也類似於隊列深度32,其中BlueStore表現更好。