Ceph常用命令(持續更新)


1、查看狀態常用命令

# 集群狀態

ceph -s

## 查看正在操作的動作

ceph -w

# 查看已經創建的磁盤

rbd ls -l

# 查看ceph集群

ceph osd tree

# 查看ceph授權信息

ceph auth get client.admin

# 移除monitor節點

ceph-deploy mon destroy lab1

# 詳細列出集群每塊磁盤的使用情況

ceph osd df

# 檢查 MDS 狀態:

ceph mds stat

 2、RBD常用命令

# 創建pool
# 若少於5個OSD, 設置pg_num為128。
# 5~10個OSD,設置pg_num為512。
# 10~50個OSD,設置pg_num為4096。
# 超過50個OSD,可以參考pgcalc計算。
ceph osd pool create rbd 128 128 
rbd pool init rbd

# 刪除pool
ceph osd pool rm rbd rbd –yes-i-really-really-mean-it 
##ceph.conf 添加 
##mon_allow_pool_delete = true

# 手動創建一個rbd磁盤
rbd create --image-feature layering [rbd-name] -s 10240

3、OSD常用命令

# 清除磁盤上的邏輯卷
ceph-volume lvm zap --destroy /dev/vdc  # 本機操作
ceph-deploy disk zap lab4 /dev/sdb  # 遠程操作
# 創建osd
ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0

## 刪除osd節點的node4
# 查看節點node4上的所有osd,比如osd.9 osd.10:
ceph osd tree #查看目前cluster狀態
# 把node4上的所欲osd踢出集群:(node1節點上執行)
ceph osd out osd.9
ceph osd out osd.10
# 讓node4上的所有osd停止工作:(node4上執行)
service ceph stop osd.9
service ceph stop osd.10
# 查看node4上osd的狀態是否為down,權重為0
ceph osd tree
# 移除node4上的所有osd:
ceph osd crush remove osd.9
ceph osd crush remove osd.10
# 刪除節點node4:
ceph osd crush remove ceph-node4

## 替換一個失效的磁盤驅動
# 首先ceph osd tree 查看down掉的osd,將因磁盤問題down掉的osd及相關key刪除
ceph osd out osd.0       # 都在node1節點下執行
ceph osd crush rm osd.0
ceph auth del osd.0
ceph osd rm osd.0
#zap新磁盤 清理新磁盤:
ceph-deploy disk zap node1 /dev/sdb
#在磁盤上新建一個osd,ceph會把它添加為osd:0:
ceph-deploy --overwrite-conf osd create node1 /dev/sdb

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM