在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重現 ...
問題現象: ceph告警問題: too many PGs per OSD 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health warn。 當前PG數量調整為了 。 當前 台存儲節點,只有 個OSD,每個存儲節點都有 個OSD,但是其中一台存儲節點上缺少一個OSD。 解決方案 方法 . 再加 個OSD盤到集群即 ...
2020-04-30 17:40 0 572 推薦指數:
在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重現 ...
標簽(空格分隔): ceph,ceph運維,pg 集群環境: 集群當前布局: 為每個主機再添加一個osd: 為了重現too few pgs的錯誤,同時為了創建指定數據位置osd,下面創建bluestore的osd,數據存儲在/dev/sdd1上。在每個主機上執行下面的步驟 ...
獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...
【問題背景】 當前環境 集群信息: 一個3個mon節點,10個osd節點的ceph集群。 每個osd節點上有16塊1.8T的數據盤和4塊ssd的journal盤。osd磁盤做RAID0,WB模式。 ceph版本: Jewel 【問題現象 ...
測試環境出現 deep-scrubbed in time 警告 [root@node437 ~]# ceph -v ceph version 15.2.13 (c44bc49e7a57a87d84dfff2a077a2058aa2172e2) octopus (stable ...
客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 網絡 ...
故障描述: 節前將所有ceph節點全部關機,節后開機后發現 osd 全部down ceph -s發現 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查詢很多資料都不知道如何處理,只能刪除 ...
1. 打開編輯limits.conf文件 vi /etc/security/limits.conf 2. 插入以下內容* hard nofile 999999* soft nofile 9999 ...