原文:ceph-pg

版本:mimic https: . . . : pve docs chapter pveceph.html pve ceph osds As a rule of thumb, for roughly TiB of data, GiB of memory will be used by an OSD. OSD caching will use additional memory.mon comman ...

2019-05-05 18:22 0 605 推荐指数:

查看详情

[转] 关于 Ceph PG

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)QEMU-KVM ...

Tue May 22 17:23:00 CST 2018 0 1601
ceph PG Pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Sat Jan 14 07:21:00 CST 2017 0 1891
CephPG数调整

目录 1. PG介绍 2. 计算PG数 3. 修改PG和PGP 4. 集群扩容对PG分布的影响 1. PG介绍 PG, Placement Groups。CRUSH先将数据分解成一组对象,然后根据对象名称、复制级别和系统中的PG数等信息执行散列操作 ...

Fri Nov 23 03:59:00 CST 2018 0 3669
ceph pg pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Fri Jan 19 22:12:00 CST 2018 0 1323
调整cephpg

PG全称是placement groups,它是ceph的逻辑存储单元。在数据存储到cesh时,先打散成一系列对象,再结合基于对象名的哈希操作、复制级别、PG数量,产生目标PG号。根据复制级别的不同,每个PG在不同的OSD上进行复制和分发。可以把PG想象成存储了多个对象的逻辑容器,这个容器映射 ...

Fri Jun 16 00:53:00 CST 2017 0 6694
Ceph 监控 OSD 和 PG

高可用性和高可靠性需要一种容错方法来管理硬件和软件问题。Ceph 没有单点故障,并且可以以“降级”模式为数据请求提供服务。Ceph 的数据放置引入了一个间接层,以确保数据不会直接绑定到特定的 OSD 地址。这意味着跟踪系统故障需要找到问题根源所在的归置组和底层 OSD。 提示 集群的某一 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
Ceph —— 均衡PG

Ceph —— 均衡PG 日常工作中,我们常常会发现PG不均衡,而集群中只要有一个OSD先达到full的状态,则整个集群都无法写入数据,所以为了尽可能的提高集群存储空间的利用率,我们都希望PG尽可能的均匀分布在OSD上。 出现PG不均衡最常见的背景情况: 刚刚安装部署Ceph集群完毕 ...

Sun Jan 05 01:31:00 CST 2020 0 1142
Ceph PG均衡介绍

1 概述 ​ ceph存储中存储池的pg随机分布至存储池所使用的硬盘域规则内osd上,会有osd上的pg数相差较大的情况出现。 ​ 当数据写入存储池,会导致不同的osd上的数据读写压力不均衡,影响总体性能。因此在测试性能前对存储池进行pg均衡操作是必需操作。 2 操作步骤 2.1查看当前 ...

Wed Apr 13 23:42:00 CST 2022 0 846
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM