原文:Rook Ceph OSD异常,格式化osd硬盘重新挂载

今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 进入rook ceph toolbox工具pod 命名用ceph命令查询并删除osd 删除相关osd节点的deployment 登录要删除osd所在的服务器,格式化osd硬盘 安装sgdisk命令,yum i ...

2020-12-31 10:34 0 583 推荐指数:

查看详情

Rook Ceph OSD异常格式化osd硬盘重新挂载

今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...

Thu Oct 29 18:03:00 CST 2020 0 1694
ceph云2期更换硬盘和添加osd

1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...

Fri Mar 02 18:00:00 CST 2018 2 769
Ceph添加、删除osd及故障硬盘更换

添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd:   (1)选择一个osd节点,添加好新的硬盘:   (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...

Wed Jul 10 03:17:00 CST 2019 0 1369
ceph osd 自动挂载的N种情况

直接上干货: ceph自动挂载原理 系统启动后,ceph 通过扫描所有磁盘及分区的 ID_PART_ENTRY_TYPE 与自己main.py中写死的osd ready 标识符来判断磁盘(及其分区)是否准备好自动挂载(journal ,block, osd 同是一个道理 ...

Thu Apr 04 01:33:00 CST 2019 0 766
分布式存储ceph——(5)ceph osd故障硬盘更换

正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...

Mon Apr 22 23:53:00 CST 2019 0 927
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知识

osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM