Ceph 集群在運行一段時間后常會碰到OSD 數據不均衡的時候,有的OSD 使用率超過的80%,有的甚至不足60%。一般有兩種方法去均衡各個OSDs 間的數據 OSD Reweight 其實就是給各個OSDs 設置均衡權重(區別OSD weight 是根據容量設置的固定權重) 調整數據量超過 ...
刪除OSD 以刪除osd. 為例,查看ceph osd相關信息: ceph s 查看Ceph集群狀態,確保為HEALTH OK ceph osd tree 查看OSD樹 osd標號 osd權重等信息 ceph osd df ceph s 查看Ceph集群狀態,確保為HEALTH OK ceph osd tree 查看OSD樹 osd標號 osd權重等信息 ceph osd dump grep os ...
2021-11-03 13:47 2 671 推薦指數:
Ceph 集群在運行一段時間后常會碰到OSD 數據不均衡的時候,有的OSD 使用率超過的80%,有的甚至不足60%。一般有兩種方法去均衡各個OSDs 間的數據 OSD Reweight 其實就是給各個OSDs 設置均衡權重(區別OSD weight 是根據容量設置的固定權重) 調整數據量超過 ...
1. 刪除OSD (以刪除osd.6為例) 查看Ceph osd相關信息 降osd權重 先降低osd權重為0,讓數據自動遷移至其它osd,可避免out和crush remove操作時的兩次水位平衡。 水位平衡完成后,即用ceph -s查看到恢復HEALTH_OK狀態后,再繼續后續操作 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...
Ceph 日常運維管理 目錄 Ceph 日常運維管理 一、集群監控管理 1、集群整體運行狀態 2、常用查詢狀態指令 3、集群標志 4、集群標志操作 5、PG操作 ...