摘自 同事分享文档,记录下
Ceph 文件系统( Ceph FS )是个 POSIX 兼容的文件系统,它使用 Ceph 存储集群来存储数据。Ceph 文件系统要求 Ceph 存储集群内至少有一个 Ceph 元数据服务器。
1、添加MDS,接上篇,这里把ceph01节点作为元数据服务器MDS。
#ceph-deploy mds create ceph01
#netstat -tnlp | grep mds
tcp 0 0 0.0.0.:6804 0.0.0.0:* LISTEN 12787
/ceph-mds
|
2、创建两个存储池。MDS需要使用两个pool,一个pool用来存储数据,一个pool用来存储元数据。
#ceph osd pool create fs_data 32
#ceph osd pool create fs_metadata 32
#rados lspools
|
3、创建Cephfs
#ceph fs new cephfs fs_metadata fs_data
#ceph fs ls
name: cephfs, metadata pool: fs_metadata, data pools: [fs_data ]
|
4、查看MDS状态
#ceph mds stat
e5: 1
/1/1
up {0=ceph01=up:active}
|
挂载Cephfs
CephFS有不同的挂载方式,这里只说其中一种,后面结合k8s使用的时候会用到该种方式。
1、加载rbd内核模块
#modprobe rbd
#lsmod | grep rbd
rbd 83938 0
libceph 287066 2 rbd,ceph
|
2、获取admin key
#cat ceph.client.admin.keyring
[client.admin]
key = AQDchXhYTtjwHBAAk2
/H1Ypa23WxKv4jA1NFWw
==
caps mds =
"allow *"
caps mon =
"allow *"
caps osd =
"allow *"
|
3、创建挂载点,尝试本地挂载
#mkdir /cephfs_test
#mount -t ceph 0.0.0.0:6789:/ /cephfs_test -o name=admin,secret=AQDchXhYTtjwHBAAk2/H1Ypa23WxKv4jA1NFWw==
#df -hT
0.0.0.0:/ ceph 60G 104M 60G 1%
/cephfs_test
|
4、如果有多个mon节点,可以挂载多个节点,保证了CephFS的高可用,当有一个节点down的时候不影响数据读写
#mount -t ceph 0,1,2:6789:/ /cephfs_test -o name=admin,secret=AQDchXhYTtjwHBAAk2/H1Ypa23WxKv4jA1NFWw==
#df -hT
0,1,2:6789:/ ceph 60G 104M 60G 1%
/cephfs_test
|