一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
删除osd的正确方式有如下 对比分析 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提供服务了 将节点状态标记为out 这个一步是告诉mon,这个节点已经不能服务了,需要在其他的osd上进行数据的恢复了 从crush中移除节点 从crush中删除是告诉集群这个点回不来了,完全从集群的分 ...
2017-12-14 09:57 0 8866 推荐指数:
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
(4)SUSE Ceph 增加节点、减少节点、 删除OSD磁盘等操作 - Storage6 (5)深 ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 创建和删除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda ...
1、 这里假设有一个osd被删除了 执行下列步骤删除: ceph osd out osd.0 service ceph stop osd.0 ceph osd crush remove osd.0 ceph auth del osd.0 ceph ...
一、OSD管理 1.1 移出故障osd 查看当前节点的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 产看状态 [root@ceph2 ceph ...
参考官方文档:http://docs.ceph.org.cn/rados/operations/add-or-rm-osds/ 一、卸载分区 1、杀掉要删除的osd进程ps -ef|grep ceph #杀掉osd.8的进程号 kill -9 9293 (进程号是随机数,会变)2、卸载分区 ...