原文:影響性能的關鍵部分-ceph的osd journal寫

在前面一篇文章中,我們看到,當使用filestore時,osd會把磁盤分成data和journal兩部分。這主要是為了支持object的transaction操作。我的想法是,ceph需要具有數據保護功能,從client端寫入的數據 以返回I O Completion為標志 不能丟失。對於object為什么要使用journal,ceph官方也給出了解釋: 速度:有了journal分區后,寫數據速度 ...

2017-10-24 18:32 0 4228 推薦指數:

查看詳情

Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
ceph集群添加osd

獲取osd的ID 這個操作是在管理節點上執行 [root@node-4 osd]# ceph osd create 2 對磁盤做處理 [root@node-4 ~]# parted /dev/sdb mktable gpt Warning: The existing disk label ...

Fri Jun 14 22:28:00 CST 2019 0 1317
Ceph 監控 OSD 和 PG

高可用性和高可靠性需要一種容錯方法來管理硬件和軟件問題。Ceph 沒有單點故障,並且可以以“降級”模式為數據請求提供服務。Ceph 的數據放置引入了一個間接層,以確保數據不會直接綁定到特定的 OSD 地址。這意味着跟蹤系統故障需要找到問題根源所在的歸置組和底層 OSD。 提示 集群的某一部分 ...

Mon Feb 28 05:32:00 CST 2022 0 1032
ceph 添加osd 擴容

注1:如果是在已有的osd節點加盤擴容 Step1: 登錄到admin節點,切換到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加節點為node-131的盤符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
ceph刪除osd pool

刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...

Mon Nov 02 01:53:00 CST 2020 0 1073
osdceph讀寫流程

概述 OSD是RADOS集群的基本存儲單元。 PG(placement group)從名字可理解為放置策略組,它是對象的集合,該集合里的所有對象都具有相同的放置策略:對象的副本都分布在相同的OSD列表上。一個對象只能屬於一個PG,一個PG對應於放置在其上的OSD列表。一個OSD上可以分布多個 ...

Fri Dec 10 18:21:00 CST 2021 0 1581
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM