刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
https: my.oschina.net wangzilong blog ceph集群中允許使用混合類型的磁盤,比如一部分磁盤是SSD,一部分是STAT。如果針對某些業務小高速磁盤SSD,某些業務需要STAT,在創建資源池的時候可以指定創建在某些OSD上。 基本步驟有 步: 當前只有STAT沒有SSD,但是不影響實驗結果。 獲取crush map 反編譯crush map 修改crush map ...
2019-07-03 12:21 0 795 推薦指數:
刪除ceph osd pool發現有以下log # ceph osd pool rm utopa utopa --yes-i-really-really-mean-it ...
https://www.cnblogs.com/boshen-hzb/p/7169143.html Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略;支持兩種類型:副本(replicated)和 糾刪碼( Erasure Code);目前我們公司內部使用的Pool ...
原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存儲對象的邏輯分區,它規定了數據冗余的類型和對應的副本分布策略;支持兩種類型:副本(replicated)和 糾刪碼( Erasure Code);目前我們公司內部使用的Pool都是副本 ...
1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda, 其他盤有/dev/sdb、/dev/sdc和/dev/sdd ...
ceph 創建和刪除osd 1、概述 本次主要是使用ceph-deploy工具和使用ceph的相關命令實現在主機上指定磁盤創建和刪除osd,本次以主機172.16.1.96(主機名hadoop96)為例,此主機系統盤為/dev/sda ...
使用Ceph-deploy完成RGW服務部署后(最好是在部署RGW服務前建立如下這些pool),使用sudo ceph osd lspools 命令,會發現RGW自動以默認參數創建了N個rgw相關的pool。 然而這些pool的參數按默認是不符合要求。 因此需要重建這些pool。 步驟 ...
原文:https://www.cnblogs.com/zyxnhr/p/10553717.html 1、沒有創建pool之前 2、創建pool后 3、修改osd級別 4、再次查看ceph狀態 ...
一、添加osd: 當前ceph集群中有如下osd,現在准備新添加osd: (1)選擇一個osd節點,添加好新的硬盤: (2)顯示osd節點中的硬盤,並重置新的osd硬盤: 列出節點磁盤:ceph-deploy disk list rab1 擦凈節點磁盤:ceph ...