原文:問題處理--ceph集群告警 too many PGs per OSD

問題現象: ceph告警問題: too many PGs per OSD 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health warn。 當前PG數量調整為了 。 當前 台存儲節點,只有 個OSD,每個存儲節點都有 個OSD,但是其中一台存儲節點上缺少一個OSD。 解決方案 方法 . 再加 個OSD盤到集群即 ...

2020-04-30 17:40 0 572 推薦指數:

查看詳情

021 Ceph關於too few PGs per OSD問題

在一個ceph集群中,操作創建一個池后,發現ceph集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重現 ...

Mon Apr 01 01:06:00 CST 2019 0 1472
HEALTH_WARN too few PGs per OSD (21 < min 30)解決方法

標簽(空格分隔): cephceph運維,pg 集群環境: 集群當前布局: 為每個主機再添加一個osd: 為了重現too few pgs的錯誤,同時為了創建指定數據位置osd,下面創建bluestore的osd,數據存儲在/dev/sdd1上。在每個主機上執行下面的步驟 ...

Wed Nov 15 17:39:00 CST 2017 0 5618
ceph集群添加osd

獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
ceph pgs not deep-scrubbed in time 處理

測試環境出現 deep-scrubbed in time 警告 [root@node437 ~]# ceph -v ceph version 15.2.13 (c44bc49e7a57a87d84dfff2a077a2058aa2172e2) octopus (stable ...

Wed Jan 12 19:02:00 CST 2022 0 1858
Ceph Health_err osd_full等問題處理

客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 網絡 ...

Mon Jul 12 06:39:00 CST 2021 0 259
Ceph OSD故障處理

故障描述: 節前將所有ceph節點全部關機,節后開機后發現 osd 全部down ceph -s發現 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查詢很多資料都不知道如何處理,只能刪除 ...

Mon Feb 06 06:05:00 CST 2017 0 1939
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM