原文:ceph修復osd為down的情況

嘗試一 直接重新激活所有osd 查看osd樹 發現osd. 是down掉的。 再次激活所有的osd 記住是所有的,不只是down掉這一個 下面命令當中的 dev sdb 是每一個osd節點使用的實際存儲硬盤或分區。 查看osd樹和健康狀態 只有為HEALTH OK 才算是正常的。 嘗試二 修復down掉的osd 該方法主要應用於某個osd物理損壞,導致激活不了 查看osd樹 發現osd. 是dow ...

2017-05-02 16:09 0 15004 推薦指數:

查看詳情

ceph osd 自動掛載的N種情況

直接上干貨: ceph自動掛載原理 系統啟動后,ceph 通過掃描所有磁盤及分區的 ID_PART_ENTRY_TYPE 與自己main.py中寫死的osd ready 標識符來判斷磁盤(及其分區)是否准備好自動掛載(journal ,block, osd 同是一個道理 ...

Thu Apr 04 01:33:00 CST 2019 0 766
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知識

osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
刪除Ceph OSD節點

刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph集群添加osd

獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
Ceph 監控 OSD 和 PG

高可用性和高可靠性需要一種容錯方法來管理硬件和軟件問題。Ceph 沒有單點故障,並且可以以“降級”模式為數據請求提供服務。Ceph 的數據放置引入了一個間接層,以確保數據不會直接綁定到特定的 OSD 地址。這意味着跟蹤系統故障需要找到問題根源所在的歸置組和底層 OSD。 提示 集群的某一 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM