如何將下線的OSD磁盤,重新初始化上線使用


將前面刪除的osd磁盤,重新初始化並重新加入到ceph集群當中。

 

清空已刪除磁盤中的內容

          輸入命令:

          wipefs -af /dev/sdd

zap該磁盤

ceph-volume lvm zap /dev/sdd

   

[ceph: root@ceph-mon1 /]# ceph-volume lvm zap --help

usage: ceph-volume lvm zap [-h] [--destroy] [--osd-id OSD_ID]

[--osd-fsid OSD_FSID] [--no-systemd]

[DEVICES [DEVICES ...]]

   

測試發現在cephadm安裝下的ceph集群並不生效,提示如下:

   

   

查看所有設備

[ceph: root@ceph-mon1 /]# ceph orch device ls

   

[ceph: root@ceph-mon1 /]# ceph osd tree

   

ceph-mon2和ceph-osd4分別少了一塊硬盤在線(前面實驗delete掉了)

   

定位是哪塊盤不在線

[ceph: root@ceph-mon1 /]# ceph osd metadata 2 | grep devices

[ceph: root@ceph-mon1 /]# ceph osd metadata 9 | grep devices

   

   

相比較可以得知是sdc不在線,就是前面實驗下線的osd.3

   

zap該磁盤,使其可重新被使用。

[ceph: root@ceph-mon1 /]# ceph orch device --help |grep zap

orch device zap <hostname> <path> [--force] Zap (erase!) a device so it can be re-used

   

[ceph: root@ceph-mon1 /]# ceph orch device zap ceph-mon2 /dev/sdc --force

   

重新查看可用狀態

   

重新加入集群,收工。

[ceph: root@ceph-mon1 /]# ceph orch daemon add osd ceph-mon2:/dev/sdc

Created osd(s) 3 on host 'ceph-mon2'

   

補充:

如果磁盤有舊信息,沒有zap將無法重新被加入集群

[ceph: root@ceph-mon2 /]# ceph orch daemon add osd ceph-mon2:/dev/sdc

Created no osd(s) on host ceph-mon2; already created?

   

   

   

   

zap另一塊磁盤出錯

ceph orch device zap ceph-osd4 /dev/sdd --force 出錯

   

   

[root@ceph-osd4 ceph]# wipefs -af /dev/sdd

   

完成wipefs操作后,重啟該OSD所在節點的機器

   

重新zap,這次正常了

   

   

   

查看設備,已顯示可用。

[ceph: root@ceph-mon1 /]# ceph orch device ls

   

重新加入后,前面實驗刪除的osd.8已重新加入集群。

[ceph: root@ceph-mon1 /]# ceph orch daemon add osd ceph-osd4:/dev/sdd

   

   

   

   

至此,12塊盤全部可用。

   

   

   

   


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM