添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...
更换故障OSD . 故障现象 . 临时解决办法 执行 ceph pg repair 解决,此时由于磁盘坏道造成不可读的数据会拷贝到其他位置。但这不能从根本上解决问题,磁盘损坏会持续报出类似的错误。 . 获取磁盘错误信息 定位磁盘: . 关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out ...
2020-10-11 19:54 0 631 推荐指数:
添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...
1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...
目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,ceph的osd是不建议做成raid10 ...
正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...
注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...
1 调高osd的日志等级 加上红框那一行就可以了 osd的日志路径:/var/log/ceph/ceph-osd.3.log 注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把var目录写满了 2 缺少osdmap或者错误的osdmap ...