原文:021 Ceph關於too few PGs per OSD的問題

在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 root serverc ceph osd pool ls root serverc ceph osd tree 重現錯誤 root serverc ceph osd pool create images root serverc ceph osd pool application ...

2019-03-31 17:06 0 1472 推薦指數:

查看詳情

問題處理--ceph集群告警 too many PGs per OSD

問題現象: ceph告警問題:”too many PGs per OSD問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health_warn ...

Fri May 01 01:40:00 CST 2020 0 572
HEALTH_WARN too few PGs per OSD (21 < min 30)解決方法

標簽(空格分隔): cephceph運維,pg 集群環境: 集群當前布局: 為每個主機再添加一個osd: 為了重現too few pgs的錯誤,同時為了創建指定數據位置osd,下面創建bluestore的osd,數據存儲在/dev/sdd1上。在每個主機上執行下面的步驟 ...

Wed Nov 15 17:39:00 CST 2017 0 5618
Ceph Health_err osd_full等問題的處理

客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 網絡 ...

Mon Jul 12 06:39:00 CST 2021 0 259
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知識

osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
刪除Ceph OSD節點

刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM