Ceph —— ceph.conf常用參數
以下是一些常用到的Ceph配置調優參數,默認值均為ceph_nautilus(14.2.1)源碼中抄錄,如有參數描述解釋上的不妥之處,望指出。
-
mon_osd_cache_size
- 要緩存到內存中的osdmap的最大數量
- 默認值:500M
-
mon_osd_max_initial_pgs
- 創建一個池的最大pg數(若用戶指定了比這更多的PG,那集群將在創建池之后分割PG,以便達到目標)
- 默認值:1024
-
mon_osd_min_up_ratio
- 在把 OSD 標記為 down 前,保持處於 up 狀態的 OSD 最小比例。
- 默認值:0.3
-
mon_osd_min_in_ratio
- 在把 OSD 標記為 out 前,保持處於 in 狀態的 OSD 最小比例。
- 默認值:0.75
-
mon_osd_down_out_interval
- 在 OSD 停止響應多少秒后把它標記為 down 且 out 。
- 默認值:600
-
mon_osd_nearfull_ratio
- 告警水位,集群中的任一OSD空間使用率大於等於此數值時,集群將被標記為NearFull,此時集群將產生告警,並提示所有已經處於NearFull狀態的OSD
- 默認值:0.85
-
mon_osd_full_ratio
- 報停水位,集群任意一個OSD使用率大於等於此數值時,集群將被標記為full,此時集群停止接受客戶端的寫入請求
- 默認值:0.95
-
mon_osd_backfillfull_ratio
- OSD空間使用率大於等於此數值時,拒絕PG通過Backfill方式遷出或者繼續遷入本OSD
- 默認值:0.90
-
osd_failsafe_full_ratio
- PG執行包含寫操作的op時,防止所在的OSD磁盤空間被100%寫滿的最后一道屏障,超過此限制時,op將直接被丟棄
- 默認值:0.97
-
mon_max_pg_per_osd
- 集群允許的每個OSD的最大pg數
- 默認值:250(單個節點OSD少的情況,建議可以調大些)
-
osd_scrub_chunk_min
- 在單個塊中要清洗的對象的最小數量
- 默認值:5
-
osd_scrub_chunk_max
- 在單個塊中要清洗的最大對象數
- 默認值:25
-
osd_max_scrubs
- 單個OSD上的最大並發清洗數量
- 默認值:1
-
osd_scrub_begin_hour
- scrub開始時間
- 默認值:0
-
osd_scrub_end_hour
- scrub結束時間
- 默認值:24 (也就是說默認為24小時,這個自行把控)
-
osd_deep_scrub_interval
- 深層 scrub 每個PG
- 默認值:一周
-
osd_recovery_max_active
- 控制在單個OSD上,最多可以有多少個PG同時recover
- 默認值:3
如需更多參數詳情,可以git一下自己用的ceph版本的源碼來查詢,更准確一些