K8S脈絡整理(013)-1數據管理Volume PV PVC


 


 本章將討論 Kubernetes 如何管理存儲資源。

首先我們會學習 Volume,以及 Kubernetes 如何通過 Volume 為集群中的容器提供存儲;

然后我們會實踐幾種常用的 Volume 類型並理解它們各自的應用場景;

最后,我們會討論 Kubernetes 如何通過 Persistent Volume 和 Persistent Volume Claim 分離集群管理員與集群用戶的職責,並實踐 Volume 的靜態供給和動態供給。

Volume

本節我們討論 Kubernetes 的存儲模型 Volume,學習如何將各種持久化存儲映射到容器。

我們經常會說:容器和 Pod 是短暫的。
其含義是它們的生命周期可能很短,會被頻繁地銷毀和創建。容器銷毀時,保存在容器內部文件系統中的數據都會被清除。

為了持久化保存容器的數據,可以使用 Kubernetes Volume。

Volume 的生命周期獨立於容器,Pod 中的容器可能被銷毀和重建,但 Volume 會被保留。

本質上,Kubernetes Volume 是一個目錄,這一點與 Docker Volume 類似。當 Volume 被 mount 到 Pod,Pod 中的所有容器都可以訪問這個 Volume。

Kubernetes Volume 也支持多種 backend 類型,包括 emptyDir、hostPath、GCE Persistent Disk、AWS Elastic Block Store、NFS、Ceph 等,完整列表可參考 https://kubernetes.io/docs/concepts/storage/volumes/#types-of-volumes

Volume 提供了對各種 backend 的抽象,容器在使用 Volume 讀寫數據的時候不需要關心數據到底是存放在本地節點的文件系統中呢還是雲硬盤上。對它來說,所有類型的 Volume 都只是一個目錄。

我們將從最簡單的 emptyDir 開始學習 Kubernetes Volume。

emptyDir

emptyDir 是最基礎的 Volume 類型。正如其名字所示,一個 emptyDir Volume 是 Host 上的一個空目錄。

emptyDir Volume 對於容器來說是持久的,對於 Pod 則不是。當 Pod 從節點刪除時,Volume 的內容也會被刪除。但如果只是容器被銷毀而 Pod 還在,則 Volume 不受影響。

也就是說:emptyDir Volume 的生命周期與 Pod 一致。

Pod 中的所有容器都可以共享 Volume,它們可以指定各自的 mount 路徑。下面通過例子來實踐 emptyDir,配置文件如下:

apiVersion: v1
kind: Pod
metadata:
  name: producer-consumer
spec:
  containers:
  - name: producer
    image: busybox
    volumeMounts:
    - mountPath: /producer_dir
      name: shared-volume
    args:
    - /bin/sh
    - -c
    - echo "hello world" > /producer_dir/hello ; sleep 30000

  - name: consumer
    image: busybox
    volumeMounts:
    - mountPath: /consumer_dir
      name: shared-volume
    args:
    - /bin/sh
    - -c
    - cat /consumer_dir/hello ; sleep 30000

  volumes:
  - name: shared-volume
    emptyDir: {}
View Code

725.png

這里我們模擬了一個 producer-consumer 場景。

Pod 有兩個容器 producer 和 consumer,它們共享一個 Volume。

producer 負責往 Volume 中寫數據,consumer則是從 Volume 讀取數據。

① 文件最底部 volumes 定義了一個 emptyDir 類型的 Volume shared-volume

② producer 容器將 shared-volume mount 到 /producer_dir 目錄。

③ producer 通過 echo 將數據寫到文件 hello 里。

④ consumer 容器將 shared-volume mount 到 /consumer_dir 目錄。

⑤ consumer 通過 cat 從文件 hello 讀數據。

執行如下命令創建 Pod:

daweij@master:~/stady01/healthcheck$ kubectl get pod | grep -E 'producer|NAME'
NAME                                   READY     STATUS    RESTARTS   AGE
producer-consumer                      2/2       Running   0          2m
daweij@master:~/stady01/healthcheck$ kubectl logs producer-consumer consumer 
hello world

kubectl logs 顯示容器 consumer 成功讀到了 producer 寫入的數據,驗證了兩個容器共享 emptyDir Volume。

因為 emptyDir 是 Docker Host 文件系統里的目錄,其效果相當於執行了 docker run -v /producer_dir 和 docker run -v /consumer_dir。通過 docker inspect 查看容器的詳細配置信息,我們發現兩個容器都 mount 了同一個目錄:

727.png

728.png

這里 /var/lib/kubelet/pods/3e6100eb-a97a-11e7-8f72-0800274451ad/volumes/kubernetes.io~empty-dir/shared-volume 就是 emptyDir 在 Host 上的真正路徑。

emptyDir 是 Host 上創建的臨時目錄,其優點是能夠方便地為 Pod 中的容器提供共享存儲,不需要額外的配置。

但它不具備持久性,如果 Pod 不存在了,emptyDir 也就沒有了。

根據這個特性,emptyDir 特別適合 Pod 中的容器需要臨時共享存儲空間的場景,比如前面的生產者消費者用例。

下一節我們學習 hostPath Volume。 


 

hostPath Volume 

hostPath Volume 的作用是將 Docker Host 文件系統中已經存在的目錄 mount 給 Pod 的容器。

大部分應用都不會使用 hostPath Volume,因為這實際上增加了 Pod 與節點的耦合,限制了 Pod 的使用。

不過那些需要訪問 Kubernetes 或 Docker 內部數據(配置文件和二進制庫)的應用則需要使用 hostPath。

比如 kube-apiserver 和 kube-controller-manager 就是這樣的應用,通過

kubectl edit --namespace=kube-system pod kube-apiserver-k8s-master 

查看 kube-apiserver Pod 的配置,下面是 Volume 的相關部分:

729.png

這里定義了三個 hostPath volume k8scerts 和 pki,分別對應 Host 目錄 /etc/kubernetes/etc/ssl/certs 和 /etc/pki

如果 Pod 被銷毀了,hostPath 對應的目錄也還會被保留,從這點看,hostPath 的持久性比 emptyDir 強。不過一旦 Host 崩潰,hostPath 也就沒法訪問了。

下一節我們將學習具備真正持久性的 Volume。


外部 Storage Provider

如果 Kubernetes 部署在諸如 AWS、GCE、Azure 等公有雲上,可以直接使用雲硬盤作為 Volume,下面是 AWS Elastic Block Store 的例子:

apiVersion: v1
kind: Pod
metadata:
  name: using_ebs
spec:
  containers:
  - name: using-ebs
    image: busybox
    volumeMounts:
    - mountPath: /test-ebs
      name: ebs-volume
  volumes:
  - name: ebs-volume
    # This AWS EBS volume must already exist.
    awsElasticBlockStore:
      volumeID: <volume-id>
      fsType: ext4
AWS

要在 Pod 中使用 ESB volume,必須先在 AWS 中創建,然后通過 volume-id 引用。其他雲硬盤的使用方法可參考各公有雲廠商的官方文檔。

Kubernetes Volume 也可以使用主流的分布式存,比如 Ceph、GlusterFS 等,下面是 Ceph 的例子:

apiVersion: v1
kind: Pod
metadata:
  name: using_ceph
spec:
  containers:
  - name: using-ceph
    image: busybox
    volumeMounts:
    - mountPath: /test-ceph
      name: ceph-volume
  volumes:
  - name: ceph-volume
    cephfs:
      path: /some/path/in/side/cephfs
      monitors: "10.16.154.78:6789"
      secretFile: "/etc/ceph/admin/secret"
CEPH

Ceph 文件系統的 /some/path/in/side/cephfs 目錄被 mount 到容器路徑 /test-ceph。

相對於 emptyDir 和 hostPath,這些 Volume 類型的最大特點就是不依賴 Kubernetes。Volume 的底層基礎設施由獨立的存儲系統管理,與 Kubernetes 集群是分離的。數據被持久化后,即使整個 Kubernetes 崩潰也不會受損。

當然,運維這樣的存儲系統通常不是項簡單的工作,特別是對可靠性、高可用和擴展性有較高要求時。

Volume 提供了非常好的數據持久化方案,不過在可管理性上還有不足。

下一節我們將學習具有更高管理性的存儲方案:PersistentVolume & PersistentVolumeClaim。


 

PersistentVolume & PersistentVolumeClaim

Volume 提供了非常好的數據持久化方案,不過在可管理性上還有不足。

拿前面 AWS EBS 的例子來說,要使用 Volume,Pod 必須事先知道如下信息:

  1. 當前 Volume 來自 AWS EBS。
  2. EBS Volume 已經提前創建,並且知道確切的 volume-id。

Pod 通常是由應用的開發人員維護,而 Volume 則通常是由存儲系統的管理員維護。開發人員要獲得上面的信息:

  1. 要么詢問管理員。
  2. 要么自己就是管理員。

這樣就帶來一個管理上的問題:應用開發人員和系統管理員的職責耦合在一起了。如果系統規模較小或者對於開發環境這樣的情況還可以接受。但當集群規模變大,特別是對於生成環境,考慮到效率和安全性,這就成了必須要解決的問題。

Kubernetes 給出的解決方案是 PersistentVolume 和 PersistentVolumeClaim。

PersistentVolume (PV) 是外部存儲系統中的一塊存儲空間,由管理員創建和維護。與 Volume 一樣,PV 具有持久性,生命周期獨立於 Pod。

PersistentVolumeClaim (PVC) 是對 PV 的申請 (Claim)。PVC 通常由普通用戶創建和維護。需要為 Pod 分配存儲資源時,用戶可以創建一個 PVC,指明存儲資源的容量大小和訪問模式(比如只讀)等信息,Kubernetes 會查找並提供滿足條件的 PV。

有了 PersistentVolumeClaim,用戶只需要告訴 Kubernetes 需要什么樣的存儲資源,而不必關心真正的空間從哪里分配,如何訪問等底層細節信息。這些 Storage Provider 的底層信息交給管理員來處理,只有管理員才應該關心創建 PersistentVolume 的細節信息。

Kubernetes 支持多種類型的 PersistentVolume,比如 AWS EBS、Ceph、NFS 等,完整列表請參考 https://kubernetes.io/docs/concepts/storage/persistent-volumes/#types-of-persistent-volumes

下節我們用 NFS 來體會 PersistentVolume 的使用方法。


NFS PersistentVolume

作為准備工作,我們已經在 k8s-master 節點上搭建了一個 NFS 服務器,目錄為 /nfsdata

創建方法,參考頁面:紅帽RHCE培訓-課程3筆記內容2

732.png

下面創建一個 PV mypv1,配置文件 nfs-pv1.yml 如下:

apiVersion: v1
kind: PersistentVolume
metadata:
  name: mypv1
spec:
  capacity:
    storage: 1Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Recycle
  storageClassName: nfs
  nfs:
    path: /nfsdata/pv1
    server: 172.28.2.210
mypv1.yml

733.png

① capacity 指定 PV 的容量為 1G。

② accessModes 指定訪問模式為 ReadWriteOnce,支持的訪問模式有:
ReadWriteOnce – PV 能以 read-write 模式 mount 到單個節點。
ReadOnlyMany – PV 能以 read-only 模式 mount 到多個節點。
ReadWriteMany – PV 能以 read-write 模式 mount 到多個節點。

③ persistentVolumeReclaimPolicy 指定當 PV 的回收策略為 Recycle,支持的策略有:
Retain – 需要管理員手工回收。
Recycle – 清除 PV 中的數據,效果相當於執行 rm -rf /thevolume/*
Delete – 刪除 Storage Provider 上的對應存儲資源,例如 AWS EBS、GCE PD、Azure Disk、OpenStack Cinder Volume 等。

④ storageClassName 指定 PV 的 class 為 nfs。相當於為 PV 設置了一個分類,PVC 可以指定 class 申請相應 class 的 PV。

⑤ 指定 PV 在 NFS 服務器上對應的目錄。

創建 mypv1

734.png

STATUS 為 Available,表示 mypv1 就緒,可以被 PVC 申請。

接下來創建 PVC mypvc1,配置文件 nfs-pvc1.yml 如下:

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mypvc1
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1Gi
  storageClassName: nfs
mypvc.yml

735.png

PVC 就很簡單了,只需要指定 PV 的容量,訪問模式和 class。

創建 mypvc1

736.png

從 kubectl get pvc 和 kubectl get pv 的輸出可以看到 mypvc1 已經 Bound 到 mypv1,申請成功。

接下來就可以在 Pod 中使用存儲了,Pod 配置文件 pod1.yml 如下:

apiVersion: v1
kind: Pod
metadata:
  name: mypod1
spec:
  containers:
  - name: mypod1
    image: busybox
    args:
    - /bin/sh
    - -c
    - sleep 30000
    volumeMounts:
    - mountPath: "/mydata"
      name: mydata
  volumes:
    - name: mydata
      persistentVolumeClaim:
        claimName: mypvc1
pod-pvc.yml

737.png

與使用普通 Volume 的格式類似,在 volumes 中通過 persistentVolumeClaim 指定使用 mypvc1 申請的 Volume。

創建 mypod1

738.png

驗證 PV 是否可用:

739.png

可見,在 Pod 中創建的文件 /mydata/hello 確實已經保存到了 NFS 服務器目錄 /nfsdata/pv1 中。

如果不再需要使用 PV,可用刪除 PVC 回收 PV,下節我們詳細討論。


回收 PV

當不再需要使用 PV,可以刪除 PVC 回收 PV。

kubectl delete pvc mypvc1

740.png

當 PVC mypvc1 被刪除后,我們發現 Kubernetes 啟動了一個新 Pod recycler-for-mypv1,這個 Pod 的作用就是清除 PV mypv1 的數據。此時 mypv1 的狀態為 Released,表示已經解除了與 mypvc1 的 Bound,正在清除數據,不過此時還不可用。

當數據清除完畢,mypv1 的狀態重新變為 Available,此時則可以被新的 PVC 申請。

741.png

/nfsdata/pv1 中的 hello 文件已經被刪除了。

因為 PV 的回收策略設置為 Recycle,所以數據會被清除,但這可能不是我們想要的結果。

如果我們希望保留數據,可以將策略設置為 Retain

apiVersion: v1
kind: PersistentVolume
metadata:
  name: mypv1
spec:
  capacity:
    storage: 1Gi
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Retain
  storageClassName: nfs
  nfs:
    path: /nfsdata/pv1
    server: 172.28.2.210
retainpv

742.png

通過 kubectl apply 更新 PV:

743.png

回收策略已經變為 Retain,通過下面步驟驗證其效果:

744.png

① 重新創建 mypvc1

② 在 mypv1 中創建文件 hello

③ mypv1 狀態變為 Released

④ Kubernetes 並沒有啟動 Pod recycler-for-mypv1

⑤ PV 中的數據被完整保留。

雖然 mypv1 中的數據得到了保留,但其 PV 狀態會一直處於 Released,不能被其他 PVC 申請。為了重新使用存儲資源,可以刪除並重新創建 mypv1刪除操作只是刪除了 PV 對象,存儲空間中的數據並不會被刪除。

745.png

新建的 mypv1 狀態為 Available,已經可以被 PVC 申請。

PV 還支持 Delete 的回收策略,會刪除 PV 在 Storage Provider 上對應存儲空間。

NFS 的 PV 不支持 Delete,支持 Delete 的 Provider 有 AWS EBS、GCE PD、Azure Disk、OpenStack Cinder Volume 等。

下一節我們學習 PV 的動態供給功能。


PV 動態供給

前面的例子中,我們提前創建了 PV,然后通過 PVC 申請 PV 並在 Pod 中使用,這種方式叫做靜態供給(Static Provision)。

與之對應的是動態供給(Dynamical Provision),即如果沒有滿足 PVC 條件的 PV,會動態創建 PV。相比靜態供給,動態供給有明顯的優勢:不需要提前創建 PV,減少了管理員的工作量,效率高。

動態供給是通過 StorageClass 實現的,StorageClass 定義了如何創建 PV,下面是兩個例子。

StorageClass standard

746.png

StorageClass slow

747.png

這兩個 StorageClass 都會動態創建 AWS EBS,不同在於 standard 創建的是 gp2類型的 EBS,而 slow 創建的是 io1 類型的 EBS。不同類型的 EBS 支持的參數可參考 AWS 官方文檔。

StorageClass 支持 Delete 和 Retain 兩種 reclaimPolicy,默認是 Delete

與之前一樣,PVC 在申請 PV 時,只需要指定 StorageClass 和容量以及訪問模式,比如:

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: mypvc1
spec:
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 1Gi
  storageClassName: standard
View Code

748.png

除了 AWS EBS,Kubernetes 支持其他多種動態供給 PV 的 Provisioner,完整列表請參考 https://kubernetes.io/docs/concepts/storage/storage-classes/#provisioner

下一節以 MySQL 為例演示如何在項目中使用 PV 和 PVC。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM