問題現象: ceph告警問題:”too many PGs per OSD” 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health ...
客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump grep full ratio 網絡的解決方法: . 設置 osd 禁止讀寫 ceph osd pause . 通知 mon 和 osd 修改 full 閾值 ceph tell mon. injectargs mon osd full ratio . ...
2021-07-11 22:39 0 259 推薦指數:
問題現象: ceph告警問題:”too many PGs per OSD” 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health ...
故障描述: 節前將所有ceph節點全部關機,節后開機后發現 osd 全部down ceph -s發現 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查詢很多資料都不知道如何處理,只能刪除 ...
【問題背景】 當前環境 集群信息: 一個3個mon節點,10個osd節點的ceph集群。 每個osd節點上有16塊1.8T的數據盤和4塊ssd的journal盤。osd磁盤做RAID0,WB模式。 ceph版本: Jewel 【問題現象 ...
備注:(查看pool要根據部署方式,rook部署的要進容器查看,其他的部署方式一般在集群直接直接輸入命令就行) (本篇博客用的是rook部署的ceph集群) 一.查看ceph集群將康狀況(查看pool要根據部署方式,rook部署的要進容器查看,其他的部署方式一般在集群直接直接輸入命令就行 ...
在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重現 ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
概述 OSD是RADOS集群的基本存儲單元。 PG(placement group)從名字可理解為放置策略組,它是對象的集合,該集合里的所有對象都具有相同的放置策略:對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可以分布多個 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...