原文:Ceph —— 均衡PG

Ceph 均衡PG 日常工作中,我们常常会发现PG不均衡,而集群中只要有一个OSD先达到full的状态,则整个集群都无法写入数据,所以为了尽可能的提高集群存储空间的利用率,我们都希望PG尽可能的均匀分布在OSD上。 出现PG不均衡最常见的背景情况: 刚刚安装部署Ceph集群完毕 集群扩容或是其他情况,进行了加盘的操作,OSD数量发生变化 为了节省日常工作的时间,针对PG均衡问题,写了个python ...

2020-01-04 17:31 0 1142 推荐指数:

查看详情

Ceph PG均衡介绍

1 概述 ​ ceph存储中存储池的pg随机分布至存储池所使用的硬盘域规则内osd上,会有osd上的pg数相差较大的情况出现。 ​ 当数据写入存储池,会导致不同的osd上的数据读写压力不均衡,影响总体性能。因此在测试性能前对存储池进行pg均衡操作是必需操作。 2 操作步骤 2.1查看当前 ...

Wed Apr 13 23:42:00 CST 2022 0 846
Ceph Luminous手动解决pg分布不均衡问题

原文链接: https://www.jianshu.com/p/afb6277dbfd6 1.设置集群仅支持 Luminous(或者L之后的)客户端 具体命令: ceph osd set-require-min-compat-client luminous ...

Tue Apr 28 01:02:00 CST 2020 0 801
ceph-pg

版本:mimic https://192.168.1.5:8006/pve-docs/chapter-pveceph.html#pve_ceph_osds As a rule of thumb, for roughly 1 TiB of data, 1 GiB of memory ...

Mon May 06 02:22:00 CST 2019 0 605
[转] 关于 Ceph PG

本系列文章会深入研究 Ceph 以及 Ceph 和 OpenStack 的集成: (1)安装和部署 (2)Ceph RBD 接口和工具 (3)Ceph 物理和逻辑结构 (4)Ceph 的基础数据结构 (5)Ceph 与 OpenStack 集成的实现 (6)QEMU-KVM ...

Tue May 22 17:23:00 CST 2018 0 1601
ceph PG Pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Sat Jan 14 07:21:00 CST 2017 0 1891
CephPG数调整

目录 1. PG介绍 2. 计算PG数 3. 修改PG和PGP 4. 集群扩容对PG分布的影响 1. PG介绍 PG, Placement Groups。CRUSH先将数据分解成一组对象,然后根据对象名称、复制级别和系统中的PG数等信息执行散列操作 ...

Fri Nov 23 03:59:00 CST 2018 0 3669
ceph pg pool

Pool 对应 PG PGP数量的计算公式: 官方计算地址 Total PGs = ((Total_number_of_OSD * Target PGs per OSD) / max_replication_count) / pool_count Target PGs per OSD 通常 ...

Fri Jan 19 22:12:00 CST 2018 0 1323
调整cephpg

PG全称是placement groups,它是ceph的逻辑存储单元。在数据存储到cesh时,先打散成一系列对象,再结合基于对象名的哈希操作、复制级别、PG数量,产生目标PG号。根据复制级别的不同,每个PG在不同的OSD上进行复制和分发。可以把PG想象成存储了多个对象的逻辑容器,这个容器映射 ...

Fri Jun 16 00:53:00 CST 2017 0 6694
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM