1 调高osd的日志等级 加上红框那一行就可以了 osd的日志路径:/var/log/ceph/ceph-osd.3.log 注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把var目录写满了 2 缺少osdmap或者错误的osdmap ...
故障描述: 节前将所有ceph节点全部关机,节后开机后发现 osd 全部down ceph s发现 HEALTH WARN pgs stale pgs stuck stale in osds are down 查询很多资料都不知道如何处理,只能删除osd再添加 重新添加OSD .删除分区 fdisk dev sdb .重新格式化分区 mkfs.ext dev sdb .ceph deploy ov ...
2017-02-05 22:05 0 1939 推荐指数:
1 调高osd的日志等级 加上红框那一行就可以了 osd的日志路径:/var/log/ceph/ceph-osd.3.log 注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把var目录写满了 2 缺少osdmap或者错误的osdmap ...
0x00 问题描述 0x01 原因 0x02 解决办法 1、windows环境 首先需要用管理员身份打开 cmd 窗口 1.1 进入到Nessusd.exe 所在目录 1. ...
NFS协议故障分析 目录 NFS协议故障分析 前言 操作 NFS-SERVER CLIENT 前言 下面是最近我远程在我们市某个高校机房处理的一则故障,我觉很有意思,分享一下 ...
1. 当前monitor可以通过3种途径检测到osd离线 1) Osd自主上报 2) Osd通过投票的方式(满足一下条件之一,mon会将osd标记为down) a) 投票携带了Force/Immediate标识(和其他osd建立链接时返回 ...
添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...
1- 更换故障OSD 1.1- 故障现象 1.2- 临时解决办法 执行 ceph pg repair 解决,此时由于磁盘坏道造成不可读的数据会拷贝到其他位置。但这不能从根本上解决问题,磁盘损坏会持续报出类似的错误。 1.3- 获取磁盘错误信息 定位磁盘 ...
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象 ...
正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...