原文:影响性能的关键部分-ceph的osd journal写

在前面一篇文章中,我们看到,当使用filestore时,osd会把磁盘分成data和journal两部分。这主要是为了支持object的transaction操作。我的想法是,ceph需要具有数据保护功能,从client端写入的数据 以返回I O Completion为标志 不能丢失。对于object为什么要使用journal,ceph官方也给出了解释: 速度:有了journal分区后,写数据速度 ...

2017-10-24 18:32 0 4228 推荐指数:

查看详情

Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph集群添加osd

获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
Ceph 监控 OSD 和 PG

高可用性和高可靠性需要一种容错方法来管理硬件和软件问题。Ceph 没有单点故障,并且可以以“降级”模式为数据请求提供服务。Ceph 的数据放置引入了一个间接层,以确保数据不会直接绑定到特定的 OSD 地址。这意味着跟踪系统故障需要找到问题根源所在的归置组和底层 OSD。 提示 集群的某一部分 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
ceph 添加osd 扩容

注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
ceph删除osd pool

删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
osdceph读写流程

概述 OSD是RADOS集群的基本存储单元。 PG(placement group)从名字可理解为放置策略组,它是对象的集合,该集合里的所有对象都具有相同的放置策略:对象的副本都分布在相同的OSD列表上。一个对象只能属于一个PG,一个PG对应于放置在其上的OSD列表。一个OSD上可以分布多个 ...

Fri Dec 10 18:21:00 CST 2021 0 1581
ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM