注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...
目录 一 osd扩容 . osd横向扩容 scale out . osd纵向扩容 scale up . . 清理磁盘数据 . . 加入新的osd . . 确认ods已扩容 . ceph osd数据重新分布 . . 临时关闭rebalance . . 开启rebalance 二 osd缩容 . 剔除osd节点 一 osd扩容 . osd横向扩容 scale out 简单理解,横向扩容就是通过增加节 ...
2021-06-20 20:54 0 449 推荐指数:
注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...
1 OSD扩容/缩容 1.1 横向扩容(scale out) 横向扩容:简单的理解,就是增加节点,通过增加节点来达到增加容量的目的 1、部署环境,参见《02 Ceph集群规划及部署mimic》,按照所有标注node节点的执行,包括安装环境准备,用户创建,配置源,安装ceph ...
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象 ...
最近建设新机房,趁项目时间空余较多,正好系统的测试一下CEPH集群性能随OSD数目的变化情况, 新ceph集群测试结果如下: 1)4k随机读在3/6/9osd host下的性能差不多,吞吐量约50~60MB/s,IOPS约为14000,延时约4ms;osd数增加,上涨幅度很小 2)512k ...
一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...
osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...
删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...
目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,ceph的osd是不建议做成raid10 ...