问题现象: ceph告警问题:”too many PGs per OSD” 问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health ...
客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump grep full ratio 网络的解决方法: . 设置 osd 禁止读写 ceph osd pause . 通知 mon 和 osd 修改 full 阈值 ceph tell mon. injectargs mon osd full ratio . ...
2021-07-11 22:39 0 259 推荐指数:
问题现象: ceph告警问题:”too many PGs per OSD” 问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health ...
故障描述: 节前将所有ceph节点全部关机,节后开机后发现 osd 全部down ceph -s发现 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查询很多资料都不知道如何处理,只能删除 ...
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象 ...
备注:(查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行) (本篇博客用的是rook部署的ceph集群) 一.查看ceph集群将康状况(查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行 ...
在一个ceph集群中,操作创建一个池后,发现ceph的集群状态处于warn状态,信息如下 检查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重现 ...
删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
概述 OSD是RADOS集群的基本存储单元。 PG(placement group)从名字可理解为放置策略组,它是对象的集合,该集合里的所有对象都具有相同的放置策略:对象的副本都分布在相同的OSD列表上。一个对象只能属于一个PG,一个PG对应于放置在其上的OSD列表。一个OSD上可以分布多个 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...