一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
這里假設有一個osd被刪除了 執行下列步驟刪除: ceph osd out osd. service ceph stop osd. ceph osd crush remove osd. ceph auth del osd. ceph osd rm 當執行以上步驟后osd. 被刪除掉了 此時數據目錄還在,如下: 使用這個目錄恢復osd 在源osd. 的節點執行: ceph osd creat ce ...
2017-02-16 20:08 0 1866 推薦指數:
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
1 調高osd的日志等級 加上紅框那一行就可以了 osd的日志路徑:/var/log/ceph/ceph-osd.3.log 注意:加上了這一行后日志會刷很多,所以要特別注意日志容量的變化,以防把var目錄寫滿了 2 缺少osdmap或者錯誤的osdmap ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...
一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...
參考官方文檔:http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/ 一、卸載分區 1、殺掉要刪除的osd進程ps -ef|grep ceph #殺掉osd.8的進程號 kill -9 9293 (進程號是隨機數,會變)2、卸載分區 ...