問題現象: ceph告警問題:”too many PGs per OSD” 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health_warn ...
在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 root serverc ceph osd pool ls root serverc ceph osd tree 重現錯誤 root serverc ceph osd pool create images root serverc ceph osd pool application ...
2019-03-31 17:06 0 1472 推薦指數:
問題現象: ceph告警問題:”too many PGs per OSD” 問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health_warn ...
標簽(空格分隔): ceph,ceph運維,pg 集群環境: 集群當前布局: 為每個主機再添加一個osd: 為了重現too few pgs的錯誤,同時為了創建指定數據位置osd,下面創建bluestore的osd,數據存儲在/dev/sdd1上。在每個主機上執行下面的步驟 ...
客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 網絡 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...
刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...
目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,ceph的osd是不建議做成raid10 ...