原文:Ceph添加、删除osd及故障硬盘更换

添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 . 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: 选择一个osd节点,添加好新的硬盘: 显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘: 擦净节点磁盘: 准备Object Storage Daemon: 激活Object Storage Daemon: . 删除osd 现在要将 rab 中 ...

2019-07-09 19:17 0 1369 推荐指数:

查看详情

ceph云2期更换硬盘添加osd

1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
分布式存储ceph——(5)ceph osd故障硬盘更换

正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
103) ceph更换故障OSD/添加OSD步骤

1- 更换故障OSD 1.1- 故障现象 1.2- 临时解决办法 执行 ceph pg repair 解决,此时由于磁盘坏道造成不可读的数据会拷贝到其他位置。但这不能从根本上解决问题,磁盘损坏会持续报出类似的错误。 1.3- 获取磁盘错误信息 定位磁盘 ...

Mon Oct 12 03:54:00 CST 2020 0 631
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
018 Ceph的mon和osd删除添加

一、OSD管理 1.1 移出故障osd 查看当前节点的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 产看状态 [root@ceph2 ceph ...

Sat Mar 30 06:32:00 CST 2019 0 1223
5.6、ceph集群添加删除OSD

4 添加删除OSD 新加节点 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新创建的 172.16.1.34 节点上新增加两块未使用 ...

Thu Dec 30 01:14:00 CST 2021 0 716
Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
分布式存储ceph——(4)ceph 添加/删除osd

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点 ...

Thu Apr 18 02:31:00 CST 2019 0 614
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM