1.3 ceph osd数据重新分布 1.3.1 临时关闭reb ...
最近建设新机房,趁项目时间空余较多,正好系统的测试一下CEPH集群性能随OSD数目的变化情况, 新ceph集群测试结果如下: k随机读在 osd host下的性能差不多,吞吐量约 MB s,IOPS约为 ,延时约 ms osd数增加,上涨幅度很小 k顺序读在 osd host下吞吐量均能达到 MB s ceph写性能较低,但是随着osd数量的增加,写性能均直线上涨 对比老ceph集群,新ceph集 ...
2017-03-02 11:30 0 4709 推荐指数:
1.3 ceph osd数据重新分布 1.3.1 临时关闭reb ...
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象 ...
在前面一篇文章中,我们看到,当使用filestore时,osd会把磁盘分成data和journal两部分。这主要是为了支持object的transaction操作。我的想法是,ceph需要具有数据保护功能,从client端写入的数据(以返回I/O Completion为标志)不能丢失 ...
在虚拟化及云计算技术大规模应用于企业数据中心的科技潮流中,存储性能无疑是企业核心应用是否虚拟化、云化的关键指标之一。传统的做法是升级存储设备,但这没解决根本问题,性能和容量不能兼顾,并且解决不好设备利旧问题。因此,企业迫切需要一种大规模分布式存储管理软件,能充分利用已有硬件资源,在可控成本范围内 ...
在跑脚本的过程中,希望日期随线程递增,具体demo如下 1、线程组设置5个线程数 2、新增取样器 3、使用Jmeter开发脚本时,难免需要调试,这时可以使用Jmeter的Debug Sampler,它有三个选项:JMeter properties,JMeter variables ...
首先声明,同事做的实验 使用fio对SATA、SSD、PCIE进行了测试 测试说明: 1、测试命名 sync_write_4k_32 sync表示测试方式,可以是sync或者libaio,sync就是发起IO请求等待IO完成后,此thread继续 ...
表结构如下: CREATE TABLE `tab_AAA` ( `id` bigint(20) NOT NULL AUTO_INCREMENT , `customer_no` varchar ...
默认情况下, Ceph 觉得你会把 OSD 日志存储于下列路径: 未做性能优化时, Ceph 会把日志存储在与 OSD 数据相同的硬盘上。追求高性能的 OSD 可用单独的硬盘存储日志数据,如固态硬盘能提供高性能日志。 osd journal size 默认值是5120 ...