4 添加和刪除OSD 新加節點 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新創建的 172.16.1.34 節點上新增加兩塊未使用 ...
獲取osd的ID 這個操作是在管理節點上執行 root node osd ceph osd create 對磁盤做處理 root node parted dev sdb mktable gpt Warning: The existing disk label on dev sdb will be destroyed and all data on this disk will be lost. D ...
2019-06-14 14:28 0 1317 推薦指數:
4 添加和刪除OSD 新加節點 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新創建的 172.16.1.34 節點上新增加兩塊未使用 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
注1:如果是在已有的osd節點加盤擴容 Step1: 登錄到admin節點,切換到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加節點為node-131的盤符信息 Step3: ceph-deploy disk ...
修改主機名和 /etc/hosts 關閉防火牆和 SELINUX 安裝和配置 NTP ceph-deploy 節點安裝 安裝 ceph-deploy sudo yum install ceph-deploy -y 配置 SSH(生成公秘鑰實現免密訪問) 添加 OSD ...
: 1.4- 關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down ...
一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...
1.對更換完的硬盤進行划分raid0,並開啟ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storc ...
添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...