添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...
.對更換完的硬盤進行划分raid ,並開啟ssdcache功能 storcli c add vd r size all divers : cached storcli c add vd r drives : ,storcli c v set iopolicy Cached storcli c v set ssdcaching on .確認ok后,在對應的存儲節點進行盤的檢查。 .通知停響應節點監 ...
2018-03-02 10:00 2 769 推薦指數:
添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...
正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...
1- 更換故障OSD 1.1- 故障現象 1.2- 臨時解決辦法 執行 ceph pg repair 解決,此時由於磁盤壞道造成不可讀的數據會拷貝到其他位置。但這不能從根本上解決問題,磁盤損壞會持續報出類似的錯誤。 1.3- 獲取磁盤錯誤信息 定位磁盤 ...
目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,ceph的osd是不建議做成raid10 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...
注1:如果是在已有的osd節點加盤擴容 Step1: 登錄到admin節點,切換到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加節點為node-131的盤符信息 Step3: ceph-deploy disk ...
修改主機名和 /etc/hosts 關閉防火牆和 SELINUX 安裝和配置 NTP ceph-deploy 節點安裝 安裝 ceph-deploy sudo yum install ceph-deploy -y 配置 SSH(生成公秘鑰實現免密訪問) 添加 OSD ...