原文:ceph云2期更换硬盘和添加osd

.对更换完的硬盘进行划分raid ,并开启ssdcache功能 storcli c add vd r size all divers : cached storcli c add vd r drives : ,storcli c v set iopolicy Cached storcli c v set ssdcaching on .确认ok后,在对应的存储节点进行盘的检查。 .通知停响应节点监 ...

2018-03-02 10:00 2 769 推荐指数:

查看详情

Ceph添加、删除osd及故障硬盘更换

添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd:   (1)选择一个osd节点,添加好新的硬盘:   (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...

Wed Jul 10 03:17:00 CST 2019 0 1369
分布式存储ceph——(5)ceph osd故障硬盘更换

正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
103) ceph更换故障OSD/添加OSD步骤

1- 更换故障OSD 1.1- 故障现象 1.2- 临时解决办法 执行 ceph pg repair 解决,此时由于磁盘坏道造成不可读的数据会拷贝到其他位置。但这不能从根本上解决问题,磁盘损坏会持续报出类似的错误。 1.3- 获取磁盘错误信息 定位磁盘 ...

Mon Oct 12 03:54:00 CST 2020 0 631
Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph集群添加osd

获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
ceph 添加osd 扩容

注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
ceph添加osdceph-deploy)

修改主机名和 /etc/hosts 关闭防火墙和 SELINUX 安装和配置 NTP ceph-deploy 节点安装 安装 ceph-deploy sudo yum install ceph-deploy -y 配置 SSH(生成公秘钥实现免密访问) 添加 OSD ...

Thu Sep 13 19:18:00 CST 2018 0 2691
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM