原文:ceph crush算法和crushmap淺析

什么是crushmap crushmap就相當於是ceph集群的一張數據分布地圖,crush算法通過該地圖可以知道數據應該如何分布 找到數據存放位置從而直接與對應的osd進行數據訪問和寫入 故障域的設置和數據冗余選擇策略等。crushmap的靈活設置顯示出了ceph的軟件定義存儲方案。這里可以引入raid相關的概念來對比下:raid :又稱為Stripe,中文名為條帶,它是所有RAID級別中存儲 ...

2019-03-04 19:51 0 2976 推薦指數:

查看詳情

Ceph源碼解析:CRUSH算法

1、簡介 隨着大規模分布式存儲系統(PB級的數據和成百上千台存儲設備)的出現。這些系統必須平衡的分布數據和負載(提高資源利用率),最大化系統的性能,並要處理系統的擴展和硬件失效。ceph設計了CRUSH(一個可擴展的偽隨機數據分布算法),用在分布式對象存儲系統上,可以有效映射數據對象 ...

Wed Jun 08 06:08:00 CST 2016 0 16680
Ceph 知識摘錄(Crush算法、PG/PGP)

Crush算法1、Crush的目的 優化分配數據,高效的重組數據,靈活的約束對象副本放置,硬件故障時候最大化保證數據安全 2、流程 Ceph 架構中,Ceph客戶端是直接讀寫存放在OSD上的RADOS Object,因此,Ceph需要走完(Pool, Object ...

Sat Aug 25 14:42:00 CST 2018 0 1047
ceph crush的問題

ceph crush的問題看一遍忘一遍,現將《ceph源碼分析》一書中相關章節摘抄如下: 4.2.1 層級化的Cluster Map例4-1 Cluster Map定義層級化的Cluster Map定義了OSD集群具有層級關系的靜態拓撲結構。OSD的層級使得CRUSH算法在選擇OSD時實現了機架 ...

Tue Oct 16 02:25:00 CST 2018 0 679
Ceph學習筆記(2)- CRUSH數據分布算法

前言: ​ 分布式存儲系統需要讓數據均勻的分布在集群中的物理設備上,同時在新設備加入,舊設備退出之后讓數據重新達到平衡狀態尤為重要。新設備加入后,數據要從不同的老設備中遷移過來。老設備退出后,數據遷 ...

Thu Apr 02 23:53:00 CST 2020 0 754
cephcrush map

,執行命令:     ceph osd getcrushmap -o {compiled-crushmap ...

Fri May 08 21:34:00 CST 2015 0 5492
Ceph剖析:數據分布之CRUSH算法與一致性Hash

作者:吳香偉 發表於 2014/09/05 版權聲明:可以任意轉載,轉載時務必以超鏈接形式標明文章原始出處和作者信息以及版權聲明 數據分布是分布式存儲系統的一個重要部分,數據分布算法至少要考慮以下三個因素: 故障域隔離。同份數據的不同副本分布在不同的故障域,降低數據損壞的風險; 負載 ...

Sat Sep 06 00:15:00 CST 2014 1 14547
014 Ceph管理和自定義CRUSHMAP

通過CRUSH算法得到存放數據的一組OSD位置(副本個數),第一個是主,后面是從 客戶端獲得OSD ID,直 ...

Thu Mar 28 04:28:00 CST 2019 0 1501
Ceph剔除主機,Crushmap遺留臟數據

背景:   1. 一個集群總共有5台主機(Host11,Host12,Host13,Host14,Host16),由於資源過剩,需要剔除兩台主機用於其他用途,host11-13都是monitor+n ...

Sun Jan 13 07:19:00 CST 2019 0 580
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM