在一个ceph集群中,操作创建一个池后,发现ceph的集群状态处于warn状态,信息如下 检查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重现 ...
问题现象: ceph告警问题: too many PGs per OSD 问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health warn。 当前PG数量调整为了 。 当前 台存储节点,只有 个OSD,每个存储节点都有 个OSD,但是其中一台存储节点上缺少一个OSD。 解决方案 方法 . 再加 个OSD盘到集群即 ...
2020-04-30 17:40 0 572 推荐指数:
在一个ceph集群中,操作创建一个池后,发现ceph的集群状态处于warn状态,信息如下 检查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重现 ...
标签(空格分隔): ceph,ceph运维,pg 集群环境: 集群当前布局: 为每个主机再添加一个osd: 为了重现too few pgs的错误,同时为了创建指定数据位置osd,下面创建bluestore的osd,数据存储在/dev/sdd1上。在每个主机上执行下面的步骤 ...
获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象 ...
测试环境出现 deep-scrubbed in time 警告 [root@node437 ~]# ceph -v ceph version 15.2.13 (c44bc49e7a57a87d84dfff2a077a2058aa2172e2) octopus (stable ...
客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 网络 ...
故障描述: 节前将所有ceph节点全部关机,节后开机后发现 osd 全部down ceph -s发现 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查询很多资料都不知道如何处理,只能删除 ...
1. 打开编辑limits.conf文件 vi /etc/security/limits.conf 2. 插入以下内容* hard nofile 999999* soft nofile 9999 ...