原文:Ceph寫入文件到分布至各個osd過程分析

一 簡介 本文主要講解ceph接收客戶端數據寫入,然后在系統內部數據是如何進行分布的,以及分布原理簡單介紹。所有介紹都基於如下圖進行講解。 上圖左側的幾個概念說明如下: File:file就是用戶需要存儲或者訪問的實際文件。 Ojbect:object是ceph底層分布式存儲系統RADOS所看到的 對象 。File寫入到ceph是由object size M 決定客戶端實際寫入的file被分片多 ...

2020-09-27 14:12 0 590 推薦指數:

查看詳情

Ceph代碼分析-OSD

Ceph分布文件系統的代碼分析的文章網上是比較少的,本團隊成員對ceph做過詳細的代碼閱讀,包括mds、osd、client等模塊,但是缺少條理清晰的文檔總結。暫且先放上OSD的代碼分析,等后續整理陸續放上其它模塊的。 1 OSD的基本結構 主要的類,涉及 ...

Sat Mar 02 02:11:00 CST 2013 2 11385
分布式存儲ceph——(4)ceph 添加/刪除osd

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點 ...

Mon Apr 22 23:52:00 CST 2019 0 1264
分布式存儲ceph——(5)ceph osd故障硬盤更換

正常狀態: 故障狀態: 實施更換步驟: (1)關閉ceph集群數據遷移: osd硬盤故障,狀態變為down。在經過mod osd down out interval 設定的時間間隔后,ceph將其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
分布式存儲ceph——(4)ceph 添加/刪除osd

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點 ...

Thu Apr 18 02:31:00 CST 2019 0 614
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知識

osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
刪除Ceph OSD節點

刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM