原文:ceph 刪除了osd但是osd目錄保存完整如何恢復

這里假設有一個osd被刪除了 執行下列步驟刪除: ceph osd out osd. service ceph stop osd. ceph osd crush remove osd. ceph auth del osd. ceph osd rm 當執行以上步驟后osd. 被刪除掉了 此時數據目錄還在,如下: 使用這個目錄恢復osd 在源osd. 的節點執行: ceph osd creat ce ...

2017-02-16 20:08 0 1866 推薦指數:

查看詳情

ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
刪除Ceph OSD節點

刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
ceph刪除osd pool

刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
Ceph osd故障恢復

1 調高osd的日志等級 加上紅框那一行就可以了 osd的日志路徑:/var/log/ceph/ceph-osd.3.log 注意:加上了這一行后日志會刷很多,所以要特別注意日志容量的變化,以防把var目錄寫滿了 2 缺少osdmap或者錯誤的osdmap ...

Wed Dec 04 03:30:00 CST 2019 0 952
ceph 創建和刪除osd

1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...

Mon Sep 05 02:01:00 CST 2016 0 7452
ceph 創建和刪除osd

ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...

Wed Jul 26 02:20:00 CST 2017 0 7444
018 Ceph的mon和osd刪除和添加

一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...

Sat Mar 30 06:32:00 CST 2019 0 1223
ceph 刪除osd操作方法

參考官方文檔:http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/ 一、卸載分區 1、殺掉要刪除osd進程ps -ef|grep ceph #殺掉osd.8的進程號 kill -9 9293 (進程號是隨機數,會變)2、卸載分區 ...

Wed Mar 21 04:21:00 CST 2018 0 1887
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM