原文:Ceph之osd擴容和換盤

目錄 一 osd擴容 . osd橫向擴容 scale out . osd縱向擴容 scale up . . 清理磁盤數據 . . 加入新的osd . . 確認ods已擴容 . ceph osd數據重新分布 . . 臨時關閉rebalance . . 開啟rebalance 二 osd縮容 . 剔除osd節點 一 osd擴容 . osd橫向擴容 scale out 簡單理解,橫向擴容就是通過增加節 ...

2021-06-20 20:54 0 449 推薦指數:

查看詳情

ceph 添加osd 擴容

注1:如果是在已有的osd節點加擴容 Step1: 登錄到admin節點,切換到/root/ceph-deploy Step2: ceph-deploy disk list node-131 #查看新加節點為node-131的盤符信息 Step3: ceph-deploy disk ...

Mon Jul 17 18:21:00 CST 2017 0 2045
OSD操作(擴容/縮容//數據重平衡/數據一致性)

1 OSD擴容/縮容 1.1 橫向擴容(scale out) 橫向擴容:簡單的理解,就是增加節點,通過增加節點來達到增加容量的目的 1、部署環境,參見《02 Ceph集群規划及部署mimic》,按照所有標注node節點的執行,包括安裝環境准備,用戶創建,配置源,安裝ceph ...

Mon Sep 28 18:34:00 CST 2020 0 1107
CEPH 使用SSD日志+SATA數據, 隨OSD數目遞增對性能影響的遞增測試

最近建設新機房,趁項目時間空余較多,正好系統的測試一下CEPH集群性能隨OSD數目的變化情況, 新ceph集群測試結果如下: 1)4k隨機讀在3/6/9osd host下的性能差不多,吞吐量約50~60MB/s,IOPS約為14000,延時約4ms;osd數增加,上漲幅度很小 2)512k ...

Thu Mar 02 19:30:00 CST 2017 0 4709
ceph添加/刪除OSD

一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...

Fri Jul 05 03:50:00 CST 2019 0 420
ceph osd 知識

osd對象存儲設備: ceph中數據存儲過程首先數據會被分割成多個object,(每個object一個object id,大小可設置,默認是4MB),object是Ceph存儲的最小存儲單元。由於object的數量很多,為了有效減少了Object到OSD的索引表、降低元數據的復雜度,使得寫入 ...

Fri Dec 06 00:46:00 CST 2019 0 246
刪除Ceph OSD節點

刪除osd的正確方式有如下(對比分析) 在ceph的集群當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下: 停止osd進程 這一步是停止osd的進程,讓其他的osd知道這個節點不提 ...

Thu Dec 14 17:57:00 CST 2017 0 8866
Ceph更換OSD磁盤

目錄 簡介 更換OSD操作步驟 1. 故障磁盤定位 2. 摘除故障磁盤 3. 重建raid0 4. 重建osd 控制數據恢復及回填速度 簡介 首先需要說明的是,cephosd是不建議做成raid10 ...

Tue Jun 25 08:35:00 CST 2019 3 2484
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM