1.3 ceph osd數據重新分布 1.3.1 臨時關閉reb ...
最近建設新機房,趁項目時間空余較多,正好系統的測試一下CEPH集群性能隨OSD數目的變化情況, 新ceph集群測試結果如下: k隨機讀在 osd host下的性能差不多,吞吐量約 MB s,IOPS約為 ,延時約 ms osd數增加,上漲幅度很小 k順序讀在 osd host下吞吐量均能達到 MB s ceph寫性能較低,但是隨着osd數量的增加,寫性能均直線上漲 對比老ceph集群,新ceph集 ...
2017-03-02 11:30 0 4709 推薦指數:
1.3 ceph osd數據重新分布 1.3.1 臨時關閉reb ...
【問題背景】 當前環境 集群信息: 一個3個mon節點,10個osd節點的ceph集群。 每個osd節點上有16塊1.8T的數據盤和4塊ssd的journal盤。osd磁盤做RAID0,WB模式。 ceph版本: Jewel 【問題現象 ...
在前面一篇文章中,我們看到,當使用filestore時,osd會把磁盤分成data和journal兩部分。這主要是為了支持object的transaction操作。我的想法是,ceph需要具有數據保護功能,從client端寫入的數據(以返回I/O Completion為標志)不能丟失 ...
在虛擬化及雲計算技術大規模應用於企業數據中心的科技潮流中,存儲性能無疑是企業核心應用是否虛擬化、雲化的關鍵指標之一。傳統的做法是升級存儲設備,但這沒解決根本問題,性能和容量不能兼顧,並且解決不好設備利舊問題。因此,企業迫切需要一種大規模分布式存儲管理軟件,能充分利用已有硬件資源,在可控成本范圍內 ...
在跑腳本的過程中,希望日期隨線程遞增,具體demo如下 1、線程組設置5個線程數 2、新增取樣器 3、使用Jmeter開發腳本時,難免需要調試,這時可以使用Jmeter的Debug Sampler,它有三個選項:JMeter properties,JMeter variables ...
首先聲明,同事做的實驗 使用fio對SATA、SSD、PCIE進行了測試 測試說明: 1、測試命名 sync_write_4k_32 sync表示測試方式,可以是sync或者libaio,sync就是發起IO請求等待IO完成后,此thread繼續 ...
表結構如下: CREATE TABLE `tab_AAA` ( `id` bigint(20) NOT NULL AUTO_INCREMENT , `customer_no` varchar ...
默認情況下, Ceph 覺得你會把 OSD 日志存儲於下列路徑: 未做性能優化時, Ceph 會把日志存儲在與 OSD 數據相同的硬盤上。追求高性能的 OSD 可用單獨的硬盤存儲日志數據,如固態硬盤能提供高性能日志。 osd journal size 默認值是5120 ...