一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...
一 添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: 選擇一個osd節點,添加好新的硬盤: 顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph deploy disk list rab 擦凈節點磁盤:ceph deploy disk zap rab dev sbd 或者 ceph deploy disk zap rab : dev vdb 准備Object ...
2019-07-04 19:50 0 420 推薦指數:
一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...
添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...
4 添加和刪除OSD 新加節點 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新創建的 172.16.1.34 節點上新增加兩塊未使用 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點 ...
刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...