原文:Ceph Health_err osd_full等問題的處理

客戶端無法再寫入,卡在某處 檢查結果: ceph health detail ceph df ceph osd df ceph osd dump grep full ratio 網絡的解決方法: . 設置 osd 禁止讀寫 ceph osd pause . 通知 mon 和 osd 修改 full 閾值 ceph tell mon. injectargs mon osd full ratio . ...

2021-07-11 22:39 0 259 推薦指數:

查看詳情

問題處理--ceph集群告警 too many PGs per OSD

問題現象: ceph告警問題:”too many PGs per OSD問題原因: 因為最近做了一些踢OSD盤的變更,導致ceph集群OSD數量變少了,所以每個OSD上的PG數量過多,導致ceph health ...

Fri May 01 01:40:00 CST 2020 0 572
Ceph OSD故障處理

故障描述: 節前將所有ceph節點全部關機,節后開機后發現 osd 全部down ceph -s發現 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查詢很多資料都不知道如何處理,只能刪除 ...

Mon Feb 06 06:05:00 CST 2017 0 1939
ceph集群提示health HEALTH_WARN

備注:(查看pool要根據部署方式,rook部署的要進容器查看,其他的部署方式一般在集群直接直接輸入命令就行) (本篇博客用的是rook部署的ceph集群) 一.查看ceph集群將康狀況(查看pool要根據部署方式,rook部署的要進容器查看,其他的部署方式一般在集群直接直接輸入命令就行 ...

Thu Nov 12 21:42:00 CST 2020 0 616
021 Ceph關於too few PGs per OSD問題

在一個ceph集群中,操作創建一個池后,發現ceph的集群狀態處於warn狀態,信息如下 檢查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重現 ...

Mon Apr 01 01:06:00 CST 2019 0 1472
ceph刪除osd pool

刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
osdceph讀寫流程

概述 OSD是RADOS集群的基本存儲單元。 PG(placement group)從名字可理解為放置策略組,它是對象的集合,該集合里的所有對象都具有相同的放置策略:對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可以分布多個 ...

Fri Dec 10 18:21:00 CST 2021 0 1581
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM