原文:Ceph Health_err osd_full等问题的处理

客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump grep full ratio 网络的解决方法: . 设置 osd 禁止读写 ceph osd pause . 通知 mon 和 osd 修改 full 阈值 ceph tell mon. injectargs mon osd full ratio . ...

2021-07-11 22:39 0 259 推荐指数:

查看详情

问题处理--ceph集群告警 too many PGs per OSD

问题现象: ceph告警问题:”too many PGs per OSD问题原因: 因为最近做了一些踢OSD盘的变更,导致ceph集群OSD数量变少了,所以每个OSD上的PG数量过多,导致ceph health ...

Fri May 01 01:40:00 CST 2020 0 572
Ceph OSD故障处理

故障描述: 节前将所有ceph节点全部关机,节后开机后发现 osd 全部down ceph -s发现 HEALTH_WARN 320 pgs stale; 320 pgs stuck stale; 3/3 in osds are down 查询很多资料都不知道如何处理,只能删除 ...

Mon Feb 06 06:05:00 CST 2017 0 1939
ceph集群提示health HEALTH_WARN

备注:(查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行) (本篇博客用的是rook部署的ceph集群) 一.查看ceph集群将康状况(查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行 ...

Thu Nov 12 21:42:00 CST 2020 0 616
021 Ceph关于too few PGs per OSD问题

在一个ceph集群中,操作创建一个池后,发现ceph的集群状态处于warn状态,信息如下 检查集群的信息 查看看池 [root@serverc ~]# ceph osd pool ls [root@serverc ~]# ceph osd tree 重现 ...

Mon Apr 01 01:06:00 CST 2019 0 1472
ceph删除osd pool

删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
osdceph读写流程

概述 OSD是RADOS集群的基本存储单元。 PG(placement group)从名字可理解为放置策略组,它是对象的集合,该集合里的所有对象都具有相同的放置策略:对象的副本都分布在相同的OSD列表上。一个对象只能属于一个PG,一个PG对应于放置在其上的OSD列表。一个OSD上可以分布多个 ...

Fri Dec 10 18:21:00 CST 2021 0 1581
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM