原文:Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 . 故障磁盘定位 . 摘除故障磁盘 . 重建raid . 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,ceph的osd是不建议做成raid 或者raid 的,一般建议单盘跑。在我们的环境中,为了充分利用raid卡的缓存,即使是单盘,我们还是将其挂在raid卡下做成raid 。 这样不可避免的问题就是磁盘的损坏,需要在ceph当中做一些摘除动作,同时 ...

2019-06-25 00:35 3 2484 推荐指数:

查看详情

ceph更换磁盘

正常状态: 故障状态: 实施更换步骤:(1)关闭ceph集群数据迁移:osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其标记为out,并开始进行数据迁移恢复。为了降低ceph进行 ...

Mon Aug 12 03:38:00 CST 2019 0 534
ceph云2期更换硬盘和添加osd

1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
Ceph添加、删除osd及故障硬盘更换

添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd:   (1)选择一个osd节点,添加好新的硬盘:   (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...

Wed Jul 10 03:17:00 CST 2019 0 1369
103) ceph更换故障OSD/添加新OSD步骤

1- 更换故障OSD 1.1- 故障现象 1.2- 临时解决办法 执行 ceph pg repair 解决,此时由于磁盘坏道造成不可读的数据会拷贝到其他位置。但这不能从根本上解决问题,磁盘损坏会持续报出类似的错误。 1.3- 获取磁盘错误信息 定位磁盘 ...

Mon Oct 12 03:54:00 CST 2020 0 631
分布式存储ceph——(5)ceph osd故障硬盘更换

正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘ceph-deploy disk list rab1 擦净节点磁盘ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知识

osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM