原文:问题处理--ceph集群告警 too many PGs per OSD

问题现象: ceph告警问题: too many PGs per OSD 问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health warn。 当前PG数量调整为了 。 当前 台存储节点,只有 个OSD,每个存储节点都有 个OSD,但是其中一台存储节点上缺少一个OSD。 解决方案 方法 . 再加 个OSD盘到集群即 ...

2020-04-30 17:40 0 572 推荐指数:

查看详情

021 Ceph关于too few PGs per OSD问题

在一个ceph集群中,操作创建一个池后,发现ceph集群状态处于warn状态,信息如下 检查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重现 ...

Mon Apr 01 01:06:00 CST 2019 0 1472
HEALTH_WARN too few PGs per OSD (21 < min 30)解决方法

标签(空格分隔): cephceph运维,pg 集群环境: 集群当前布局: 为每个主机再添加一个osd: 为了重现too few pgs的错误,同时为了创建指定数据位置osd,下面创建bluestore的osd,数据存储在/dev/sdd1上。在每个主机上执行下面的步骤 ...

Wed Nov 15 17:39:00 CST 2017 0 5618
ceph集群添加osd

获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
ceph pgs not deep-scrubbed in time 处理

测试环境出现 deep-scrubbed in time 警告 [root@node437 ~]# ceph -v ceph version 15.2.13 (c44bc49e7a57a87d84dfff2a077a2058aa2172e2) octopus (stable ...

Wed Jan 12 19:02:00 CST 2022 0 1858
Ceph Health_err osd_full等问题处理

客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 网络 ...

Mon Jul 12 06:39:00 CST 2021 0 259
Ceph OSD故障处理

故障描述: 节前将所有ceph节点全部关机,节后开机后发现 osd 全部down ceph -s发现 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查询很多资料都不知道如何处理,只能删除 ...

Mon Feb 06 06:05:00 CST 2017 0 1939
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM