4 添加和删除OSD 新加节点 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新创建的 172.16.1.34 节点上新增加两块未使用 ...
获取osd的ID 这个操作是在管理节点上执行 root node osd ceph osd create 对磁盘做处理 root node parted dev sdb mktable gpt Warning: The existing disk label on dev sdb will be destroyed and all data on this disk will be lost. D ...
2019-06-14 14:28 0 1317 推荐指数:
4 添加和删除OSD 新加节点 hostname: ceph-node04 IP: 172.16.1.34 OS: CentOS7.5 Cpu/Memory: 2vcpu/2GB disk /: 60GB 4.1 添加OSD 1 在新创建的 172.16.1.34 节点上新增加两块未使用 ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...
修改主机名和 /etc/hosts 关闭防火墙和 SELINUX 安装和配置 NTP ceph-deploy 节点安装 安装 ceph-deploy sudo yum install ceph-deploy -y 配置 SSH(生成公秘钥实现免密访问) 添加 OSD ...
: 1.4- 关闭ceph集群数据迁移: osd硬盘故障,状态变为down。在经过mod osd down ...
一、OSD管理 1.1 移出故障osd 查看当前节点的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 产看状态 [root@ceph2 ceph ...
1.对更换完的硬盘进行划分raid0,并开启ssdcache功能 storcli64 /c1 add vd r0 size=all divers = 18:10 cached(storc ...
添加或删除osd均在ceph部署节点的cent用户下的ceph目录进行。 1. 添加osd 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘 ...