Cephfs创建及挂载


摘自 同事分享文档,记录下

Ceph 文件系统( Ceph FS )是个 POSIX 兼容的文件系统,它使用 Ceph 存储集群来存储数据。Ceph 文件系统要求 Ceph 存储集群内至少有一个 Ceph 元数据服务器。

 

1、添加MDS,接上篇,这里把ceph01节点作为元数据服务器MDS。

#ceph-deploy mds create ceph01
#netstat -tnlp | grep mds
tcp        0      0 0.0.0.:6804       0.0.0.0:*               LISTEN      12787 /ceph-mds

 

2、创建两个存储池。MDS需要使用两个pool,一个pool用来存储数据,一个pool用来存储元数据。

#ceph osd pool create fs_data 32
#ceph osd pool create fs_metadata 32
#rados lspools

 

3、创建Cephfs

#ceph fs new cephfs fs_metadata fs_data
#ceph fs ls
name: cephfs, metadata pool: fs_metadata, data pools: [fs_data ]

 

4、查看MDS状态

#ceph mds stat
e5: 1 /1/1  up {0=ceph01=up:active}

挂载Cephfs

CephFS有不同的挂载方式,这里只说其中一种,后面结合k8s使用的时候会用到该种方式。

 

1、加载rbd内核模块

#modprobe rbd
#lsmod | grep rbd
rbd                    83938  0
libceph               287066  2 rbd,ceph

 

2、获取admin key

#cat ceph.client.admin.keyring
[client.admin]
     key = AQDchXhYTtjwHBAAk2 /H1Ypa23WxKv4jA1NFWw ==
     caps mds =  "allow *"
     caps mon =  "allow *"
     caps osd =  "allow *"

 

3、创建挂载点,尝试本地挂载

#mkdir /cephfs_test
#mount -t ceph 0.0.0.0:6789:/ /cephfs_test -o name=admin,secret=AQDchXhYTtjwHBAAk2/H1Ypa23WxKv4jA1NFWw==
#df -hT
0.0.0.0:/ ceph       60G  104M   60G   1%  /cephfs_test

 

4、如果有多个mon节点,可以挂载多个节点,保证了CephFS的高可用,当有一个节点down的时候不影响数据读写

#mount -t ceph 0,1,2:6789:/ /cephfs_test -o name=admin,secret=AQDchXhYTtjwHBAAk2/H1Ypa23WxKv4jA1NFWw==
#df -hT
0,1,2:6789:/ ceph       60G  104M   60G   1%  /cephfs_test


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM