今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...
今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 进入rook ceph toolbox工具pod 命名用ceph命令查询并删除osd 删除相关osd节点的deployment 登录要删除osd所在的服务器,格式化osd硬盘 安装sgdisk命令,yum i ...
2020-12-31 10:34 0 583 推荐指数:
今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...
解决方法: 在delete pod之前,执行“delete deployment” 这时就需要先deployment才行。 ...
1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storcli64 /c1 add vd r0 drives=18:10,storcli64 /c1/v9 ...
添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...
直接上干货: ceph自动挂载原理 系统启动后,ceph 通过扫描所有磁盘及分区的 ID_PART_ENTRY_TYPE 与自己main.py中写死的osd ready 标识符来判断磁盘(及其分区)是否准备好自动挂载(journal ,block, osd 同是一个道理 ...
正常状态: 故障状态: 实施更换步骤: (1)关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down out interval 设定的时间间隔后,ceph将其 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...