正常狀態: 故障狀態: 實施更換步驟:(1)關閉ceph集群數據遷移:osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其標記為out,並開始進行數據遷移恢復。為了降低ceph進行 ...
目錄 簡介 更換OSD操作步驟 . 故障磁盤定位 . 摘除故障磁盤 . 重建raid . 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,ceph的osd是不建議做成raid 或者raid 的,一般建議單盤跑。在我們的環境中,為了充分利用raid卡的緩存,即使是單盤,我們還是將其掛在raid卡下做成raid 。 這樣不可避免的問題就是磁盤的損壞,需要在ceph當中做一些摘除動作,同時 ...
2019-06-25 00:35 3 2484 推薦指數:
正常狀態: 故障狀態: 實施更換步驟:(1)關閉ceph集群數據遷移:osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其標記為out,並開始進行數據遷移恢復。為了降低ceph進行 ...
1.對更換完的硬盤進行划分raid0,並開啟ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...
添加或刪除osd均在ceph部署節點的cent用戶下的ceph目錄進行。 1. 添加osd 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤 ...
1- 更換故障OSD 1.1- 故障現象 1.2- 臨時解決辦法 執行 ceph pg repair 解決,此時由於磁盤壞道造成不可讀的數據會拷貝到其他位置。但這不能從根本上解決問題,磁盤損壞會持續報出類似的錯誤。 1.3- 獲取磁盤錯誤信息 定位磁盤 ...
正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...
【問題背景】 當前環境 集群信息: 一個3個mon節點,10個osd節點的ceph集群。 每個osd節點上有16塊1.8T的數據盤和4塊ssd的journal盤。osd磁盤做RAID0,WB模式。 ceph版本: Jewel 【問題現象 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...
osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...