原文:Ceph源碼解析:PG peering

集群中的設備異常 異常OSD的添加刪除操作 ,會導致PG的各個副本間出現數據的不一致現象,這時就需要進行數據的恢復,讓所有的副本都達到一致的狀態。 一 OSD的故障和處理辦法: . OSD的故障種類: 故障A:一個正常的OSD 因為所在的設備發生異常,導致OSD不能正常工作,這樣OSD超過設定的時間 就會被 out出集群。 故障B: 一個正常的OSD因為所在的設備發生異常,導致OSD不能正常工作, ...

2016-06-06 22:54 0 6584 推薦指數:

查看詳情

Ceph源碼解析:CRUSH算法

1、簡介 隨着大規模分布式存儲系統(PB級的數據和成百上千台存儲設備)的出現。這些系統必須平衡的分布數據和負載(提高資源利用率),最大化系統的性能,並要處理系統的擴展和硬件失效。ceph設計了CRUSH(一個可擴展的偽隨機數據分布算法),用在分布式對象存儲系統上,可以有效映射數據對象 ...

Wed Jun 08 06:08:00 CST 2016 0 16680
Ceph源碼解析:讀寫流程

轉載注明出處,整理也是需要功夫的,http://www.cnblogs.com/chenxianpao/p/5572859.html 一、OSD模塊簡介 1.1 消息封裝:在OSD上發送和接收信息 ...

Fri Jun 10 06:27:00 CST 2016 0 20807
CephPG數調整

目錄 1. PG介紹 2. 計算PG數 3. 修改PG和PGP 4. 集群擴容對PG分布的影響 1. PG介紹 PG, Placement Groups。CRUSH先將數據分解成一組對象,然后根據對象名稱、復制級別和系統中的PG數等信息執行散列操作 ...

Fri Nov 23 03:59:00 CST 2018 0 3669
ceph pg pool

Pool 對應 PG PGP數量的計算公式: 官方計算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Fri Jan 19 22:12:00 CST 2018 0 1323
調整cephpg

PG全稱是placement groups,它是ceph的邏輯存儲單元。在數據存儲到cesh時,先打散成一系列對象,再結合基於對象名的哈希操作、復制級別、PG數量,產生目標PG號。根據復制級別的不同,每個PG在不同的OSD上進行復制和分發。可以把PG想象成存儲了多個對象的邏輯容器,這個容器映射 ...

Fri Jun 16 00:53:00 CST 2017 0 6694
Ceph 監控 OSD 和 PG

高可用性和高可靠性需要一種容錯方法來管理硬件和軟件問題。Ceph 沒有單點故障,並且可以以“降級”模式為數據請求提供服務。Ceph 的數據放置引入了一個間接層,以確保數據不會直接綁定到特定的 OSD 地址。這意味着跟蹤系統故障需要找到問題根源所在的歸置組和底層 OSD。 提示 集群的某一 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
ceph-pg

版本:mimic https://192.168.1.5:8006/pve-docs/chapter-pveceph.html#pve_ceph_osds As a rule of thumb, for roughly 1 TiB of data, 1 GiB of memory ...

Mon May 06 02:22:00 CST 2019 0 605
[轉] 關於 Ceph PG

本系列文章會深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安裝和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和邏輯結構 (4)Ceph 的基礎數據結構 (5)Ceph 與 OpenStack 集成的實現 (6)QEMU-KVM ...

Tue May 22 17:23:00 CST 2018 0 1601
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM