原文:ceph osd 自动挂载的N种情况

直接上干货: ceph自动挂载原理 系统启动后,ceph 通过扫描所有磁盘及分区的 ID PART ENTRY TYPE 与自己main.py中写死的osd ready 标识符来判断磁盘 及其分区 是否准备好自动挂载 journal ,block, osd 同是一个道理 main.py中记载的状态标志 而我们磁盘分区的信息如 当ceph判断分区的ID PART ENTRY TYPE与写死再mai ...

2019-04-03 17:33 0 766 推荐指数:

查看详情

ceph修复osd为down的情况

尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的。 2、再次激活所有的osd(记住是所有的,不只是down掉这一个) 下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。 3、查看osd树和健康状态 ...

Wed May 03 00:09:00 CST 2017 0 15004
Rook Ceph OSD异常,格式化osd硬盘重新挂载

今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...

Thu Oct 29 18:03:00 CST 2020 0 1694
Rook Ceph OSD异常,格式化osd硬盘重新挂载

今天突然一个osd节点pod一直无法正常运行,查看logs后发现报出的错误信息没办法判断是出了什么问题,在网络上搜索也没有找到解决办法,无奈之下只能决定格式化osd节点硬盘,重新加载试试。 1、进入rook ceph toolbox工具pod 2、命名用ceph命令查询 ...

Thu Dec 31 18:34:00 CST 2020 0 583
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知识

osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
删除Ceph OSD节点

删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph集群添加osd

获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM