health: HEALTH_WARN too few PGs per OSD 错误 从上面可以看到,提示说每个osd上的pg数量小于最小的数目30个。pgs为10,因为是2副本的配置,所以当有3个osd的时候,每个osd上均分了10/3 *2=6个pgs,也就是出现了如上的错误 小于最小 ...
备注: 查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行 本篇博客用的是rook部署的ceph集群 一.查看ceph集群将康状况 查看pool要根据部署方式,rook部署的要进容器查看,其他的部署方式一般在集群直接直接输入命令就行 gt .进入ceph集群容器 kubectl n rook ceph exec it kubectl n rook ...
2020-11-12 13:42 0 616 推荐指数:
health: HEALTH_WARN too few PGs per OSD 错误 从上面可以看到,提示说每个osd上的pg数量小于最小的数目30个。pgs为10,因为是2副本的配置,所以当有3个osd的时候,每个osd上均分了10/3 *2=6个pgs,也就是出现了如上的错误 小于最小 ...
造成集群状态health_warn:clock skew detected on mon节点的原因有两个,一个是mon节点上ntp服务器未启动,另一个是ceph设置的mon的时间偏差阈值比较小。 排查时也应遵循先第一个原因,后第二个原因的方式。 第一步:确认ntp服务是否正常工作 参考 ...
标签(空格分隔): ceph,ceph运维,pg 集群环境: 集群当前布局: 为每个主机再添加一个osd: 为了重现too few pgs的错误,同时为了创建指定数据位置osd,下面创建bluestore的osd,数据存储在/dev/sdd1上。在每个主机上执行下面的步骤 ...
原创转载请注明出处:https://www.cnblogs.com/agilestyle/p/11766147.html Logstash导入数据后,Cerebro显示集群health的状态为yellow 解决办法 ...
客户端无法再写入,卡在某处 检查结果: ceph health detail ceph df ceph osd df ceph osd dump | grep full_ratio 网络 ...
/_cluster_health.html 处理Elasticsearch集群yellow和red状态: ...
springboot配置health接口 spring-boot-starter-actuator 健康监控配置及使用 这样是可以看到一些结果的 如果在配置文件中用了下面这个,也是可以生效的 又找到一篇比较全的: SpringBoot集成 ...
最近因为log4j的安全漏洞升级了一下AHF。好久没有碰O,还是第一次使用AHF。 AHF包含了ORAchk、EXAchk、Trace File Analyze(TFA)。RACcheck被ORAc ...