原文:Ceph添加、刪除osd及故障硬盤更換

添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 . 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: 選擇一個osd節點,添加好新的硬盤: 顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤: 擦凈節點磁盤: 准備Object Storage Daemon: 激活Object Storage Daemon: . 刪除osd 現在要將 rab 中 ...

2019-07-09 19:17 0 1369 推薦指數:

查看詳情

ceph雲2期更換硬盤添加osd

1.對更換完的硬盤進行划分raid0,並開啟ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
分布式存儲ceph——(5)ceph osd故障硬盤更換

正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
103) ceph更換故障OSD/添加OSD步驟

1- 更換故障OSD 1.1- 故障現象 1.2- 臨時解決辦法 執行 ceph pg repair 解決,此時由於磁盤壞道造成不可讀的數據會拷貝到其他位置。但這不能從根本上解決問題,磁盤損壞會持續報出類似的錯誤。 1.3- 獲取磁盤錯誤信息 定位磁盤 ...

Mon Oct 12 03:54:00 CST 2020 0 631
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
018 Ceph的mon和osd刪除添加

一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...

Sat Mar 30 06:32:00 CST 2019 0 1223
5.6、ceph集群添加刪除OSD

4 添加刪除OSD 新加節點 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新創建的 172.16.1.34 節點上新增加兩塊未使用 ...

Thu Dec 30 01:14:00 CST 2021 0 716
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
分布式存儲ceph——(4)ceph 添加/刪除osd

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點 ...

Thu Apr 18 02:31:00 CST 2019 0 614
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM