Ceph —— ceph.conf常用參數


Ceph —— ceph.conf常用參數


以下是一些常用到的Ceph配置調優參數,默認值均為ceph_nautilus(14.2.1)源碼中抄錄,如有參數描述解釋上的不妥之處,望指出。


  • mon_osd_cache_size

    • 要緩存到內存中的osdmap的最大數量
    • 默認值:500M
  • mon_osd_max_initial_pgs

    • 創建一個池的最大pg數(若用戶指定了比這更多的PG,那集群將在創建池之后分割PG,以便達到目標)
    • 默認值:1024
  • mon_osd_min_up_ratio

    • 在把 OSD 標記為 down 前,保持處於 up 狀態的 OSD 最小比例。
    • 默認值:0.3
  • mon_osd_min_in_ratio

    • 在把 OSD 標記為 out 前,保持處於 in 狀態的 OSD 最小比例。
    • 默認值:0.75
  • mon_osd_down_out_interval

    • 在 OSD 停止響應多少秒后把它標記為 down 且 out 。
    • 默認值:600
  • mon_osd_nearfull_ratio

    • 告警水位,集群中的任一OSD空間使用率大於等於此數值時,集群將被標記為NearFull,此時集群將產生告警,並提示所有已經處於NearFull狀態的OSD
    • 默認值:0.85
  • mon_osd_full_ratio

    • 報停水位,集群任意一個OSD使用率大於等於此數值時,集群將被標記為full,此時集群停止接受客戶端的寫入請求
    • 默認值:0.95
  • mon_osd_backfillfull_ratio

    • OSD空間使用率大於等於此數值時,拒絕PG通過Backfill方式遷出或者繼續遷入本OSD
    • 默認值:0.90
  • osd_failsafe_full_ratio

    • PG執行包含寫操作的op時,防止所在的OSD磁盤空間被100%寫滿的最后一道屏障,超過此限制時,op將直接被丟棄
    • 默認值:0.97
  • mon_max_pg_per_osd

    • 集群允許的每個OSD的最大pg數
    • 默認值:250(單個節點OSD少的情況,建議可以調大些)
  • osd_scrub_chunk_min

    • 在單個塊中要清洗的對象的最小數量
    • 默認值:5
  • osd_scrub_chunk_max

    • 在單個塊中要清洗的最大對象數
    • 默認值:25
  • osd_max_scrubs

    • 單個OSD上的最大並發清洗數量
    • 默認值:1
  • osd_scrub_begin_hour

    • scrub開始時間
    • 默認值:0
  • osd_scrub_end_hour

    • scrub結束時間
    • 默認值:24 (也就是說默認為24小時,這個自行把控)
  • osd_deep_scrub_interval

    • 深層 scrub 每個PG
    • 默認值:一周
  • osd_recovery_max_active

    • 控制在單個OSD上,最多可以有多少個PG同時recover
    • 默認值:3

如需更多參數詳情,可以git一下自己用的ceph版本的源碼來查詢,更准確一些


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM