花费 24 ms
umount时目标忙解决办法

标签(空格分隔): ceph ceph运维 osd 在删除osd后umount时,始终无法umonut,可以通过fuser查看设备被哪个进程占用,之后杀死进程,就可以顺利umount了。 参考文档: https://my.oschina.net/xiaozhublog/blog ...

Sat Oct 21 00:51:00 CST 2017 0 15210
Ceph源码解析:读写流程

转载注明出处,整理也是需要功夫的,http://www.cnblogs.com/chenxianpao/p/5572859.html 一、OSD模块简介 1.1 消息封装:在OSD上发送和接收信息。 cluster_messenger -与其它OSDs和monitors沟通 ...

Fri Jun 10 06:27:00 CST 2016 0 20807
Ceph源码解析:CRUSH算法

1、简介 随着大规模分布式存储系统(PB级的数据和成百上千台存储设备)的出现。这些系统必须平衡的分布数据和负载(提高资源利用率),最大化系统的性能,并要处理系统的扩展和硬件失效。ceph设 ...

Wed Jun 08 06:08:00 CST 2016 0 16680
Ceph源码解析:PG peering

集群中的设备异常(异常OSD的添加删除操作),会导致PG的各个副本间出现数据的不一致现象,这时就需要进行数据的恢复,让所有的副本都达到一致的状态。 一、OSD的故障和处理办法: 1. OSD的故障种类: 故障A:一个正常的OSD 因为所在的设备发生异常,导致OSD不能正常工作,这样OSD超过 ...

Tue Jun 07 06:54:00 CST 2016 0 6584
Ceph osd故障恢复

1 调高osd的日志等级 加上红框那一行就可以了 osd的日志路径:/var/log/ceph/ceph-osd.3.log 注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把var目录写满了 2 缺少osdmap或者错误的osdmap ...

Wed Dec 04 03:30:00 CST 2019 0 952
集群重启某一主机下所有osd down解决办法

标签(空格分隔): ceph 运维 osd 问题描述: 掉电后,上电发现cluster中的主机node3下的所有osd都down掉了,通过命令重启node3的ceph-osd服务,osd依然无法up;通过激活集群所有osd还是不行。 解决方法: 1. 删除该主机中的所有osd ...

Fri Oct 20 18:55:00 CST 2017 0 3527
Ceph recover的速度控制

是用剔除OSD的方式来对这个修复的控制做一个探索 大部分场景下要求的是不能影响前端的业务,而加速迁 ...

Sat Oct 21 20:48:00 CST 2017 0 2544
重启osd服务失败:Start request repeated too quickly

背景   OS:Ubuntu 16.04   修改了osd的一些配置,修改后,需要重启osd服务才能生效。第一次重启后,配置立刻生效。再改了一些配置,重启osd服务后,配置却不再生效了。ps命令查看进程,发现osd进程都没有启动。 分析   osd进程未启动,第一直觉就是配置出错,osd进程 ...

Mon Mar 20 14:40:00 CST 2017 0 2379
存储结构中的对齐(alignment)

  最近,在测试基于ceph的小文件合并方案(见上个博文)时,遇到一个怪异的现象:将librados提供的append接口与我们封装的WriteFullObj接口(osd端是append操作和kvdb的put操作)对比,在处理同样大小的文件时(如4KB,8KB等),WriteFullObj ...

Fri Aug 28 07:26:00 CST 2015 0 2409
Ceph Newstore存储引擎介绍

  在Ceph被越来越多地应用于各项存储业务过程中,其性能及调优策略也成为用户密切关注讨论的话题,影响性能表现关键因素之一即OSD存储引擎实现;Ceph基础组件RADOS是强一致、对象存储系统,其OSD底层支持的存储引擎如下图所示: 其中,ObjectStore层封装了下层存储引擎的所有IO ...

Wed Nov 04 06:20:00 CST 2015 0 2273

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM