尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的。 2、再次激活所有的osd(记住是所有的,不只是down掉这一个) 下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。 3、查看osd树和健康状态 ...
直接上干货: ceph自动挂载原理 系统启动后,ceph 通过扫描所有磁盘及分区的 ID PART ENTRY TYPE 与自己main.py中写死的osd ready 标识符来判断磁盘 及其分区 是否准备好自动挂载 journal ,block, osd 同是一个道理 main.py中记载的状态标志 而我们磁盘分区的信息如 当ceph判断分区的ID PART ENTRY TYPE与写死再mai ...
2019-04-03 17:33 0 766 推荐指数:
尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的。 2、再次激活所有的osd(记住是所有的,不只是down掉这一个) 下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。 3、查看osd树和健康状态 ...
今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...
今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...
删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...
目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,ceph的osd是不建议做成raid10 ...
获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...