Ceph 集群在运行一段时间后常会碰到OSD 数据不均衡的时候,有的OSD 使用率超过的80%,有的甚至不足60%。一般有两种方法去均衡各个OSDs 间的数据 OSD Reweight 其实就是给各个OSDs 设置均衡权重(区别OSD weight 是根据容量设置的固定权重) 调整数据量超过 ...
删除OSD 以删除osd. 为例,查看ceph osd相关信息: ceph s 查看Ceph集群状态,确保为HEALTH OK ceph osd tree 查看OSD树 osd标号 osd权重等信息 ceph osd df ceph s 查看Ceph集群状态,确保为HEALTH OK ceph osd tree 查看OSD树 osd标号 osd权重等信息 ceph osd dump grep os ...
2021-11-03 13:47 2 671 推荐指数:
Ceph 集群在运行一段时间后常会碰到OSD 数据不均衡的时候,有的OSD 使用率超过的80%,有的甚至不足60%。一般有两种方法去均衡各个OSDs 间的数据 OSD Reweight 其实就是给各个OSDs 设置均衡权重(区别OSD weight 是根据容量设置的固定权重) 调整数据量超过 ...
1. 删除OSD (以删除osd.6为例) 查看Ceph osd相关信息 降osd权重 先降低osd权重为0,让数据自动迁移至其它osd,可避免out和crush remove操作时的两次水位平衡。 水位平衡完成后,即用ceph -s查看到恢复HEALTH_OK状态后,再继续后续操作 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...
删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 创建和删除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda ...
Ceph 日常运维管理 目录 Ceph 日常运维管理 一、集群监控管理 1、集群整体运行状态 2、常用查询状态指令 3、集群标志 4、集群标志操作 5、PG操作 ...