一、OSD管理 1.1 移出故障osd 查看当前节点的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 产看状态 [root@ceph2 ceph ...
一 添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: 选择一个osd节点,添加好新的硬盘: 显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph deploy disk list rab 擦净节点磁盘:ceph deploy disk zap rab dev sbd 或者 ceph deploy disk zap rab : dev vdb 准备Object ...
2019-07-04 19:50 0 420 推荐指数:
一、OSD管理 1.1 移出故障osd 查看当前节点的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 产看状态 [root@ceph2 ceph ...
添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...
4 添加和删除OSD 新加节点 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新创建的 172.16.1.34 节点上新增加两块未使用 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点 ...
删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...
删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...