一、介紹:
ceph MDS 是元數據服務器,只有ceph 文件系統(cephFS)才會需要。
cephFS 在RADOS 層之上 提供一個兼容POSIX 的文件系統。他是用MDS 作為守護進程,負責管理其元素數據並將它和其他數據分開。
cephfs 需要用到兩個pool : fs_data 和fs_metadata。 在初次使用ceph 就能之前需要首先規划 集群一共承載多少存儲業務,創建多少個 pool,最后得到每個存儲應該分配多少個pg。
pg 數量計算:
集群PG總數:
PG 總數= (OSD 總數* 100 )/最大副本數 (結果舍入到最接近的2的N次方冪的值) 結合本人搭建集群、例: PG總數 = (5*100)/2=250 ≈ 256 個PG。
集群中 每個pool 的pg 總數:
PG 總數= ((OSD總數*100)/ 最大副本數 )/ 池數 本人 規划 共有兩種業務存儲,平均分 256個PG ,每個業務存儲使用 128個。 cephfs 兩個pool :fs_data 使用 96個PG 、fs_metadata 使用 32個PG。
創建池:(語法
#ceph osd pool create pool_name gp_num pgp_num
PGP是為了實現定位而設置的PG,默認情況下單個池的PG總數和PGP總數一致,即 PG_num=PGP_num
二、部署mds
1、使用 ceph-deploy 在集群中部署MDS
# ceph-deploy mds create ceph{1,2,3} 在集群中建議配置 ≥1的奇數個 mds 節點,保證高可用。
2、創建件 cephfs 做需要的pool
# ceph osd pool create fs_data 96 96
# ceph osd pool create fs_metadata 32 32
刪除池:
# 語法: ceph osd pool delete pool_name pool_name --yes-i-really-really-mean-it
備注:新版的ceph 默認不允許刪除 pool,需要在集群文件 ceph.conf 中配置[mon],增加 mon刪除 pool 的權限。建議在真正需要刪除pool 時再修改集群文件配置此權限。其他時間請刪除權限配置,避免誤操作帶來重大過錯。

3、創建一個cephfs
《語法》# ceph fs new <fs_name> <metadata> <data>
例:# ceph fs new cephfs fs_metadata fs_data
三、客戶端調用
Linux 系統:
在客戶端調用,需要集群的信任key:/etc/ceph/ceph.client.admin.keyring 文件中的Key 值:
# 語法:mount -t ceph mds_node1:6789,mds_node2:6789,mds_node3:6789:/ client_mount_path -o name=admin,secret=Key_value
例:
# mount -t ceph 10.6.32.20:6789,10.6.32.21:6789,10.6.32.22:6789:/ /cephfs_samba -o name=admin,secret=adfasdfasdfsdfasdferfdsgersfdewafdgweradf==
查看:

Windows系統:
windows 系統調用,目前還在探索,后期補充。謝謝
