原文:[转] 关于 Ceph PG

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: 安装和部署 Ceph RBD 接口和工具 Ceph 物理和逻辑结构 Ceph 的基础数据结构 Ceph 与 OpenStack 集成的实现 QEMU KVM 和 Ceph RBD 的 缓存机制总结 Ceph 的基本操作和常见故障排除方法 关于Ceph PGs https: docs.google.com presen ...

2018-05-22 09:23 0 1601 推荐指数:

查看详情

ceph-pg

版本:mimic https://192.168.1.5:8006/pve-docs/chapter-pveceph.html#pve_ceph_osds As a rule of thumb, for roughly 1 TiB of data, 1 GiB of memory ...

Mon May 06 02:22:00 CST 2019 0 605
ceph PG Pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Sat Jan 14 07:21:00 CST 2017 0 1891
CephPG数调整

目录 1. PG介绍 2. 计算PG数 3. 修改PG和PGP 4. 集群扩容对PG分布的影响 1. PG介绍 PG, Placement Groups。CRUSH先将数据分解成一组对象,然后根据对象名称、复制级别和系统中的PG数等信息执行散列操作 ...

Fri Nov 23 03:59:00 CST 2018 0 3669
ceph pg pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Fri Jan 19 22:12:00 CST 2018 0 1323
调整cephpg

PG全称是placement groups,它是ceph的逻辑存储单元。在数据存储到cesh时,先打散成一系列对象,再结合基于对象名的哈希操作、复制级别、PG数量,产生目标PG号。根据复制级别的不同,每个PG在不同的OSD上进行复制和分发。可以把PG想象成存储了多个对象的逻辑容器,这个容器映射 ...

Fri Jun 16 00:53:00 CST 2017 0 6694
Ceph 监控 OSD 和 PG

高可用性和高可靠性需要一种容错方法来管理硬件和软件问题。Ceph 没有单点故障,并且可以以“降级”模式为数据请求提供服务。Ceph 的数据放置引入了一个间接层,以确保数据不会直接绑定到特定的 OSD 地址。这意味着跟踪系统故障需要找到问题根源所在的归置组和底层 OSD。 提示 集群的某一 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
Ceph —— 均衡PG

Ceph —— 均衡PG 日常工作中,我们常常会发现PG不均衡,而集群中只要有一个OSD先达到full的状态,则整个集群都无法写入数据,所以为了尽可能的提高集群存储空间的利用率,我们都希望PG尽可能的均匀分布在OSD上。 出现PG不均衡最常见的背景情况: 刚刚安装部署Ceph集群完毕 ...

Sun Jan 05 01:31:00 CST 2020 0 1142
Ceph PG均衡介绍

1 概述 ​ ceph存储中存储池的pg随机分布至存储池所使用的硬盘域规则内osd上,会有osd上的pg数相差较大的情况出现。 ​ 当数据写入存储池,会导致不同的osd上的数据读写压力不均衡,影响总体性能。因此在测试性能前对存储池进行pg均衡操作是必需操作。 2 操作步骤 2.1查看当前 ...

Wed Apr 13 23:42:00 CST 2022 0 846
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM