原文:103) ceph更換故障OSD/添加新OSD步驟

更換故障OSD . 故障現象 . 臨時解決辦法 執行 ceph pg repair 解決,此時由於磁盤壞道造成不可讀的數據會拷貝到其他位置。但這不能從根本上解決問題,磁盤損壞會持續報出類似的錯誤。 . 獲取磁盤錯誤信息 定位磁盤: . 關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其標記為out ...

2020-10-11 19:54 0 631 推薦指數:

查看詳情

Ceph添加、刪除osd故障硬盤更換

添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd:   (1)選擇一個osd節點,添加的硬盤:   (2)顯示osd節點中的硬盤,並重置osd硬盤: 列出節點磁盤 ...

Wed Jul 10 03:17:00 CST 2019 0 1369
ceph雲2期更換硬盤和添加osd

1.對更換完的硬盤進行划分raid0,並開啟ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
分布式存儲ceph——(5)ceph osd故障硬盤更換

正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加的硬盤: (2)顯示osd節點中的硬盤,並重置osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph集群添加osd

獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
ceph 添加osd 擴容

注1:如果是在已有的osd節點加盤擴容 Step1: 登錄到admin節點,切換到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看加節點為node-131的盤符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
Ceph osd故障恢復

1 調高osd的日志等級 加上紅框那一行就可以了 osd的日志路徑:/var/log/ceph/ceph-osd.3.log 注意:加上了這一行后日志會刷很多,所以要特別注意日志容量的變化,以防把var目錄寫滿了 2 缺少osdmap或者錯誤的osdmap ...

Wed Dec 04 03:30:00 CST 2019 0 952
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM