原文:021 Ceph关于too few PGs per OSD的问题

在一个ceph集群中,操作创建一个池后,发现ceph的集群状态处于warn状态,信息如下 检查集群的信息 查看看池 root serverc ceph osd pool ls root serverc ceph osd tree 重现错误 root serverc ceph osd pool create images root serverc ceph osd pool application ...

2019-03-31 17:06 0 1472 推荐指数:

查看详情

问题处理--ceph集群告警 too many PGs per OSD

问题现象: ceph告警问题:”too many PGs per OSD问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health_warn ...

Fri May 01 01:40:00 CST 2020 0 572
HEALTH_WARN too few PGs per OSD (21 < min 30)解决方法

标签(空格分隔): cephceph运维,pg 集群环境: 集群当前布局: 为每个主机再添加一个osd: 为了重现too few pgs的错误,同时为了创建指定数据位置osd,下面创建bluestore的osd,数据存储在/dev/sdd1上。在每个主机上执行下面的步骤 ...

Wed Nov 15 17:39:00 CST 2017 0 5618
Ceph Health_err osd_full等问题的处理

客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 网络 ...

Mon Jul 12 06:39:00 CST 2021 0 259
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知识

osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
删除Ceph OSD节点

删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM