Ceph分布式存儲部署過程


前言:

  環境介紹:此次部署系統為Cenots 7

MON、OSD

10.110.180.112

Admin

MON、OSD

10.110.180.113

Node1

MON、OSD

10.110.180.114

Node2

   

Ceph文件目錄部署過程

此部署過程是采用文件目錄方式掛在激活OSD的方式部署Ceph集群。

1.系統關閉防火牆 關閉selinux

2.配置ntp 時間同步

   

配置普通用戶 sudo 免密

   

3.配置ssh 免密

   

   

   

   

   

4.配置ceph源

[ceph@ceph-admin my-cluster]$ cat -n /etc/yum.repos.d/ceph.repo

1        [Ceph-SRPMS]

2        name=Ceph SRPMS packages

3        baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS/

4        enabled=1

5        gpgcheck=0

6        type=rpm-md

7        

8        [Ceph-aarch64]

9        name=Ceph aarch64 packages

10        baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/aarch64/

11        enabled=1

12        gpgcheck=0

13        type=rpm-md

14        

15        [Ceph-noarch]

16        name=Ceph noarch packages

17        baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/

18        enabled=1

19        gpgcheck=0

20        type=rpm-md

21        

22        [Ceph-x86_64]

23        name=Ceph x86_64 packages

24        baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/

25        enabled=1

26        gpgcheck=0

27        type=rpm-md

[ceph@ceph-admin my-cluster]$

   

5.更新源

yum makcache 

yum update

   

5.1安裝ceph 每個節點都安裝 自動安裝需要去ceph官方網站下載rpm包 狠慢很慢

   

Yum install -y ceph 目前國內阿里雲和163等 鏡像源 都是10.2的ceph

   

安裝完成之后 查看 版本

ceph -v

   

5.2安裝ceph-deploy 部署工具 

yum install ceph-deploy

5.3在開始創建集群之前 在ceph 用戶下創建文件夾 用戶部署文件輸出存放

mkdir my-cluster

cd my-cluster

6.部署新的節點

Ceph-deploy new ceph-admin ceph-node1 ceph-node2

部署完成后 會在文件夾中 產生3個文件

6.1修改ceph.config

    

  6.2修改完成后 部署 mon

ceph-deploy --overwrite-conf mon create-initial

部署完成后會出現如下截圖

在文件目錄下會產生keyring文件

   

6.3查看ceph 集群狀態

    

以上截圖中已經部署了osd ,部署osd有些問題。osd可以是磁盤格式 也可以使文件目錄形式,修改物理磁盤作為osd方式。改為目錄文件部署osd。

6.4創建兩個文件目錄

mkdir /home/osd01

777 權限

然后准備osd

     

    

激活完成 ,當部署osd出現running狀態時說明osd的狀態已經部署完成處於運行狀態。以同樣的方式部署另外的服務即可。查看下狀態目前還有ERR警告。

Ceph 部署 OSD掛在裸磁盤

此次部署方式為掛在服務器硬盤直接部署OSD。基礎環境准備和前面的一樣在此不贅述。

20181212

14:28

1. 創建新的集群 第一步

[ceph@ceph-admin my-cluster]$ ceph-deploy new ceph-admin ceph-node1 ceph-node2

執行完成后會生成配置文件

2.創建一個mon 第二步

 [ceph@ceph-admin my-cluster]$ ceph-deploy mon create-initial

默認在上面的ceph.conf文件中包含了集群內的所有節點。執行此命令會創建所有節點的mon

3.部署過程部分截圖:

3.1Ceph-admin running

3.2Ceph-node1 running

3.3Ceph-node2 running

3.4執行完成后會在目錄下產生相關的key文件

3.5查看集群狀態 

目前是err狀態沒問題 因為沒有 osd

4.物理硬盤掛在OSD

4.1ceph-deploy disk list ceph-admin 檢查可用磁盤

4.2 准備磁盤

[ceph@ceph-admin my-cluster]$ ceph-deploy osd prepare ceph-admin:sdb ceph-admin:sdc  

注意:在此之前請查看下所有磁盤。此處我使用的是物理磁盤 直接部署osd。

部分截圖:執行成功后。

4.3執行完成后 查看ceph osd

4.4添加其他節點的osd

[ceph@ceph-admin my-cluster]$ ceph-deploy disk list ceph-node1

   

[ceph@ceph-admin my-cluster]$ ceph-deploy osd prepare ceph-node1:sdb ceph-node1:sdc

   

[ceph@ceph-admin my-cluster]$ ceph-deploy osd prepare ceph-node2:sdb ceph-node2:sdc

   

4.5再次查看集群狀態已經是OK了

5.寫在最后

Ceph分布式存儲部署過程已經完成了。簡單總結下Ceph分布式存儲部署的幾個關鍵點1.最關鍵的是NTP時間問題,如果集群內部的node節點時間不一致會造成ceph集群的不健康狀態。2.創建集群萬里長征第一步,萬事開頭難第一步成功了后面部署MON部署MDS服務什么的就很簡單了。3.部署OSD應該是萬里長征的最后一步了,OSD部署完成也表示這ceph集群可以測試使用了,這一步也非常不易。OSD部署方式分為2種,u文件目錄的方式部署,此方式好處是容易找到ceph存儲對象的位置,如果文件目錄部署失敗需要清理文件目錄否則會一直報錯。v裸磁盤直接部署OSD此方式是ceph集群系統直接管理node節點磁盤。好處相對文件目錄速度快一些,如果部署失敗需要格式化磁盤 刪除osd中的認證key重新部署。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM