原文:Ceph OSD日志选项详解

默认情况下, Ceph 觉得你会把 OSD 日志存储于下列路径: 未做性能优化时, Ceph 会把日志存储在与 OSD 数据相同的硬盘上。追求高性能的 OSD 可用单独的硬盘存储日志数据,如固态硬盘能提供高性能日志。 osd journal size 默认值是 ,所以你得在 ceph.conf 里设置。日志尺寸应该是 filestore max sync interval 与期望吞吐量的乘积再乘以 ...

2020-11-04 09:13 0 826 推荐指数:

查看详情

ceph添加/删除OSD

一、添加osd: 当前ceph集群中有如下osd,现在准备新添加osd: (1)选择一个osd节点,添加好新的硬盘: (2)显示osd节点中的硬盘,并重置新的osd硬盘: 列出节点磁盘:ceph-deploy disk list rab1 擦净节点磁盘:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知识

osd对象存储设备: ceph中数据存储过程首先数据会被分割成多个object,(每个object一个object id,大小可设置,默认是4MB),object是Ceph存储的最小存储单元。由于object的数量很多,为了有效减少了Object到OSD的索引表、降低元数据的复杂度,使得写入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
删除Ceph OSD节点

删除osd的正确方式有如下(对比分析) 在ceph的集群当中关于节点的替换的问题,一直按照以前的方式进行的处理,处理的步骤如下: 停止osd进程 这一步是停止osd的进程,让其他的osd知道这个节点不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更换OSD磁盘

目录 简介 更换OSD操作步骤 1. 故障磁盘定位 2. 摘除故障磁盘 3. 重建raid0 4. 重建osd 控制数据恢复及回填速度 简介 首先需要说明的是,cephosd是不建议做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph集群添加osd

获取osd的ID 这个操作是在管理节点上执行 [root@node-4 osd]# ceph osd create 2 对磁盘做处理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
Ceph 监控 OSD 和 PG

高可用性和高可靠性需要一种容错方法来管理硬件和软件问题。Ceph 没有单点故障,并且可以以“降级”模式为数据请求提供服务。Ceph 的数据放置引入了一个间接层,以确保数据不会直接绑定到特定的 OSD 地址。这意味着跟踪系统故障需要找到问题根源所在的归置组和底层 OSD。 提示 集群的某一 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
ceph 添加osd 扩容

注1:如果是在已有的osd节点加盘扩容 Step1: 登录到admin节点,切换到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加节点为node-131的盘符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
ceph删除osd pool

删除ceph osd pool发现有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM