原文:Rook Ceph OSD異常,格式化osd硬盤重新掛載

今天突然一個osd節點pod一直無法正常運行,查看logs后發現報出的錯誤信息沒辦法判斷是出了什么問題,在網絡上搜索也沒有找到解決辦法,無奈之下只能決定格式化osd節點硬盤,重新加載試試。 進入rook ceph toolbox工具pod 命名用ceph命令查詢並刪除osd 刪除相關osd節點的deployment 登錄要刪除osd所在的服務器,格式化osd硬盤 安裝sgdisk命令,yum i ...

2020-12-31 10:34 0 583 推薦指數:

查看詳情

Rook Ceph OSD異常格式化osd硬盤重新掛載

今天突然一個osd節點pod一直無法正常運行,查看logs后發現報出的錯誤信息沒辦法判斷是出了什么問題,在網絡上搜索也沒有找到解決辦法,無奈之下只能決定格式化osd節點硬盤重新加載試試。 1、進入rook ceph toolbox工具pod 2、命名用ceph命令查詢 ...

Thu Oct 29 18:03:00 CST 2020 0 1694
ceph雲2期更換硬盤和添加osd

1.對更換完的硬盤進行划分raid0,並開啟ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
Ceph添加、刪除osd及故障硬盤更換

添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd:   (1)選擇一個osd節點,添加好新的硬盤:   (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...

Wed Jul 10 03:17:00 CST 2019 0 1369
ceph osd 自動掛載的N種情況

直接上干貨: ceph自動掛載原理 系統啟動后,ceph 通過掃描所有磁盤及分區的 ID_PART_ENTRY_TYPE 與自己main.py中寫死的osd ready 標識符來判斷磁盤(及其分區)是否准備好自動掛載(journal ,block, osd 同是一個道理 ...

Thu Apr 04 01:33:00 CST 2019 0 766
分布式存儲ceph——(5)ceph osd故障硬盤更換

正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知識

osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM