ceph 文件系統(cephfs) -- 初體驗


一、介紹:

  ceph MDS 是元數據服務器,只有ceph 文件系統(cephFS)才會需要。

  cephFS 在RADOS 層之上 提供一個兼容POSIX 的文件系統。他是用MDS 作為守護進程,負責管理其元素數據並將它和其他數據分開。

  cephfs 需要用到兩個pool : fs_data 和fs_metadata。 在初次使用ceph 就能之前需要首先規划 集群一共承載多少存儲業務,創建多少個 pool,最后得到每個存儲應該分配多少個pg。

  pg 數量計算:

    集群PG總數:

      PG 總數= (OSD  總數* 100 )/最大副本數       (結果舍入到最接近的2的N次方冪的值)             結合本人搭建集群、例: PG總數 = (5*100)/2=250 ≈ 256 個PG。

    集群中 每個pool 的pg 總數:

      PG  總數= ((OSD總數*100)/ 最大副本數 )/ 池數                   本人 規划 共有兩種業務存儲,平均分 256個PG ,每個業務存儲使用 128個。  cephfs 兩個pool :fs_data 使用 96個PG   、fs_metadata 使用 32個PG。

  創建池:(語法

    #ceph osd pool create  pool_name gp_num pgp_num

    PGP是為了實現定位而設置的PG,默認情況下單個池的PG總數和PGP總數一致,即 PG_num=PGP_num

 

二、部署mds

  1、使用 ceph-deploy 在集群中部署MDS

    # ceph-deploy mds create ceph{1,2,3}           在集群中建議配置 ≥1的奇數個 mds 節點,保證高可用。

  2、創建件 cephfs 做需要的pool

    # ceph osd pool create fs_data 96 96

    # ceph osd pool create fs_metadata 32 32

    刪除池:

      # 語法: ceph osd pool delete pool_name pool_name  --yes-i-really-really-mean-it

      備注:新版的ceph 默認不允許刪除 pool,需要在集群文件 ceph.conf 中配置[mon],增加 mon刪除 pool 的權限。建議在真正需要刪除pool 時再修改集群文件配置此權限。其他時間請刪除權限配置,避免誤操作帶來重大過錯。

        

   3、創建一個cephfs

    《語法》# ceph fs new  <fs_name>   <metadata>  <data>

       例:# ceph fs new cephfs fs_metadata fs_data

三、客戶端調用

  Linux 系統:

    在客戶端調用,需要集群的信任key:/etc/ceph/ceph.client.admin.keyring  文件中的Key 值:

    # 語法:mount -t ceph mds_node1:6789,mds_node2:6789,mds_node3:6789:/ client_mount_path -o name=admin,secret=Key_value 

    例:

    # mount -t ceph 10.6.32.20:6789,10.6.32.21:6789,10.6.32.22:6789:/ /cephfs_samba -o name=admin,secret=adfasdfasdfsdfasdferfdsgersfdewafdgweradf== 

   查看:

      

 

  Windows系統:

 

 

 windows 系統調用,目前還在探索,后期補充。謝謝

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM