1、查看狀態常用命令
# 集群狀態 ceph -s ## 查看正在操作的動作 ceph -w # 查看已經創建的磁盤 rbd ls -l # 查看ceph集群 ceph osd tree # 查看ceph授權信息 ceph auth get client.admin # 移除monitor節點 ceph-deploy mon destroy lab1 # 詳細列出集群每塊磁盤的使用情況 ceph osd df
# 檢查 MDS 狀態:
ceph mds stat
2、RBD常用命令
# 創建pool # 若少於5個OSD, 設置pg_num為128。 # 5~10個OSD,設置pg_num為512。 # 10~50個OSD,設置pg_num為4096。 # 超過50個OSD,可以參考pgcalc計算。 ceph osd pool create rbd 128 128 rbd pool init rbd # 刪除pool ceph osd pool rm rbd rbd –yes-i-really-really-mean-it ##ceph.conf 添加 ##mon_allow_pool_delete = true # 手動創建一個rbd磁盤 rbd create --image-feature layering [rbd-name] -s 10240
3、OSD常用命令
# 清除磁盤上的邏輯卷 ceph-volume lvm zap --destroy /dev/vdc # 本機操作 ceph-deploy disk zap lab4 /dev/sdb # 遠程操作 # 創建osd ceph-deploy osd create lab4 --fs-type btrfs --data vg1/lvol0 ## 刪除osd節點的node4 # 查看節點node4上的所有osd,比如osd.9 osd.10: ceph osd tree #查看目前cluster狀態 # 把node4上的所欲osd踢出集群:(node1節點上執行) ceph osd out osd.9 ceph osd out osd.10 # 讓node4上的所有osd停止工作:(node4上執行) service ceph stop osd.9 service ceph stop osd.10 # 查看node4上osd的狀態是否為down,權重為0 ceph osd tree # 移除node4上的所有osd: ceph osd crush remove osd.9 ceph osd crush remove osd.10 # 刪除節點node4: ceph osd crush remove ceph-node4 ## 替換一個失效的磁盤驅動 # 首先ceph osd tree 查看down掉的osd,將因磁盤問題down掉的osd及相關key刪除 ceph osd out osd.0 # 都在node1節點下執行 ceph osd crush rm osd.0 ceph auth del osd.0 ceph osd rm osd.0 #zap新磁盤 清理新磁盤: ceph-deploy disk zap node1 /dev/sdb #在磁盤上新建一個osd,ceph會把它添加為osd:0: ceph-deploy --overwrite-conf osd create node1 /dev/sdb
