刪除OSD 以刪除osd.6為例,查看ceph osd相關信息: ceph -s # 查看Ceph集群狀態,確保為HEALTH_OK ceph osd tree # 查看OSD樹 ...
. 刪除OSD 以刪除osd. 為例 查看Ceph osd相關信息 降osd權重 先降低osd權重為 ,讓數據自動遷移至其它osd,可避免out和crush remove操作時的兩次水位平衡。 水位平衡完成后,即用ceph s查看到恢復HEALTH OK狀態后,再繼續后續操作。 注意:在生產環境下,若osd數據量較大,一次性對多個osd降權可能導致水位平衡幅度過大 雲存儲性能大幅降低,將影響正常 ...
2020-05-25 10:59 0 1350 推薦指數:
刪除OSD 以刪除osd.6為例,查看ceph osd相關信息: ceph -s # 查看Ceph集群狀態,確保為HEALTH_OK ceph osd tree # 查看OSD樹 ...
參考官方文檔:http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/ 一、卸載分區 1、殺掉要刪除的osd進程ps -ef|grep ceph #殺掉osd.8的進程號 kill -9 9293 (進程號是隨機數,會變)2、卸載分區 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...
1、 這里假設有一個osd被刪除了 執行下列步驟刪除: ceph osd out osd.0 service ceph stop osd.0 ceph osd crush remove osd.0 ceph auth del osd.0 ceph ...