一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
刪除osd的正確方式有如下 對比分析 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提供服務了 將節點狀態標記為out 這個一步是告訴mon,這個節點已經不能服務了,需要在其他的osd上進行數據的恢復了 從crush中移除節點 從crush中刪除是告訴集群這個點回不來了,完全從集群的分 ...
2017-12-14 09:57 0 8866 推薦指數:
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
(4)SUSE Ceph 增加節點、減少節點、 刪除OSD磁盤等操作 - Storage6 (5)深 ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...
1、 這里假設有一個osd被刪除了 執行下列步驟刪除: ceph osd out osd.0 service ceph stop osd.0 ceph osd crush remove osd.0 ceph auth del osd.0 ceph ...
一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...
參考官方文檔:http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/ 一、卸載分區 1、殺掉要刪除的osd進程ps -ef|grep ceph #殺掉osd.8的進程號 kill -9 9293 (進程號是隨機數,會變)2、卸載分區 ...