容器服務 TKE 存儲插件與雲硬盤 CBS 最佳實踐應用


引言

隨着自研上雲的深入,越來越多的有狀態服務對於在 TKE 集群中使用雲上存儲能力的需求也越來越強烈。

目前 騰訊雲容器服務 TKE(Tencent Kubernetes Engine)已支持在 TKE 集群中的應用使用多種存儲服務,包括 雲硬盤 CBS文件存儲 CFS 以及 對象存儲 COS。TKE 通過兩種存儲插件(In-Tree 和 CSI)來支持上述能力,用戶可以通過雲控制台很方便地選擇存儲類型並創建對應的 PV/PVC。但仍然會有一些問題困擾着大家,比如:TKE 集群中是否支持擴容 CBS 雲盤;如果集群跨可用區,如何避免集群中頻繁出現掛載(attach)失敗;TKE 中是否支持快照功能;我的應用應該選擇哪種類型存儲;In-Tree 和 CSI 都支持 CBS,二者有和區別,是否能把之前使用 In-Tree 插件創建的雲盤轉變為 CSI 插件管理等。

對於 TKE 存儲的相關問題,這里會詳細介紹。接下來,我們先概覽下 Kubernetes 持久化存儲的流程

Kubernetes 持久化存儲流程

這里對 Kubernetes 持久化存儲的流程做個概覽,不深入各個組件。

創建一個使用了持久化存儲的 pod 的流程包含以下步驟:

  1. 用戶創建一個引用PVC的 pod(動態創建PV);
  2. Scheduler根據 pod 的配置、節點狀態、PV 配置等其他因素把 pod 調度到一個合適的 node 上;
  3. PV Controller watch 到 PVC,調用 Volume Plugin 去創建 PV,並綁定 PV 和 PVC。如果是 out-of-tree 存儲插件(如 CSI),則創建 PV 實際是由 external provisioner 完成,之后 PV Controller 完成 PV 和 PVC 的bound;如果是 in-tree 插件,但是通過kubernetes-sigs/sig-storage-lib-external-provisioner實現了一個 external provisioner,則與 out-of-tree 插件相同;如果是 in-tree 插件,且插件直接實現了相應的創刪接口,則 PV Controller 直接調用 in-tree 插件的實現完成創建 PV。
  4. AD Controller 對比 asw 和 dsw 狀態,發現 Volume 需要被 attach,則調用 Volume Plugin 的實現去 attach。in-tree 插件不需多說,如果是 CSI 插件,則 AD Controller 會先調用 CSI in-tree 代碼創建 VolumeAttachment 對象,CSI 插件的一個名為 external-attacher 的 sidecar 會 watch 該對象,watch 到創建則調用 CSI driver 的相應方法(ControllerPublishVolume)來 attach。
  5. VolumeManager 等到 volume 成功 attach 到節點后,開始調用 Volume Plugin 去進行 mount 操作。這個mount 操作分為兩步:第一步是格式化設備並把 volume mount 到一個 global mount path(/var/lib/kubelet/plugins下),第二步是將 bind mount 剛才的 global mount path到/var/lib/kubelet/pods/${pod_UUID}/volumes下。
  6. Kubelet 調用容器運行時啟動容器,並且 bind mount 第5步中的 mount path 到容器中。

(Provision -> Attach -> Mount; Unmount -> Detach -> Delete)

TKE 存儲插件及原理介紹

隨着 Kubernetes 社區發展,TKE 先后支持了 In-Tree 和 CSI 兩種存儲插件。二者在功能上的主要區別在於 In-Tree 存儲插件僅支持在 TKE 集群使用 CBS,而 CSI 支持使用 CBS、CFS、COS。

類型 支持CBS 支持CFS 支持COS 參考
In-Tree × ×
CSI https://github.com/TencentCloud/kubernetes-csi-tencentcloud

In-Tree 插件(QcloudCbs)

  • kubernetes 早期只支持以 In-Tree 的方式擴展存儲插件,也就是插件在 Kubernetes 代碼中實現。

  • In-Tree 插件名為cloud.tencent.com/qcloud-cbs,所以也可稱為 QcloudCbs,在 TKE 集群中有個默認的名為cbs的 StorageClass。

NAME            PROVISIONER                    AGE
cbs (default)   cloud.tencent.com/qcloud-cbs   48m

特性

In-Tree 插件只實現了使用 CBS 的能力,其主要特性有:

  • 靜態數據卷:即用戶手動創建 volme、PV 對象、PVC 對象
  • 動態數據卷:根據 StorageClass 配置來由插件控制創建和刪除 volume 和 PV
  • 拓撲感知:CBS 不支持跨可用區掛載,在多可用區集群中,會先調度 pod,然后去調度后的 node 的 zone 創建 volume。
  • 調度器感知節點 maxAttachLimit:騰訊雲單個 CVM 上默認最多掛載 20塊 CBS 盤,調度器感知該限制,調度時過濾到要超過 maxAttachLimit 的節點。可以全局修改 maxAttachLimit,但需要 IaaS 層先支持。
騰訊雲存儲 靜態數據卷 動態數據卷 拓撲感知 調度器感知節點 maxAttachLimit
騰訊雲硬盤(CBS) 支持兩種使用方式:
  • 直接通過 volume 使用
  • 通過PV/PVC使用(推薦)
  • 支持 支持。pod 調度后,在同一個可用區創建 volume。避免 CBS 跨可用區無法使用。 支持。雲服務器(cvm)可以掛載的雲硬盤(cbs)是有上限的。調度器調度 pod 時過濾掉超過最大可掛載 CBS 數量的節點。

    原理簡介

    下面簡單了解下 In-Tree 插件 QcloudCbs 的架構圖,了解各相關組件分別完成何種工作。

    上圖是包含 TKE In-Tree 存儲插件的 Kubernetes 存儲架構圖。圖中綠色部分,皆屬於 In-Tree 插件 QcloudCbs 的實現范疇。
    由上述的 Kubernetes持久化存儲流程 可知要動態使用一個 cbs pv,主要有三個過程:provision、attach、mount,而這三個過程是由不同組件負責的:

    • cbs-provisioner 負責 volume 的 provision/delete。為了與 Kubernetes 代碼解耦,cbs-provisioner 是基於kubernetes-sigs/sig-storage-lib-external-provisioner實現的一個 external provisioner,來 provision 和 delete volume。PV Controller 在這種模式下雖然不去 provision/delete volume,但是還是會參與處理(比如 PV 和 PVC 的綁定)。
    • AD Controller 負責 volume 的 attach/detach。Tencent Cloud Provider 中封裝雲 API,In-Tree 插件調用 Cloud Provider 實現了 attach/detach 的具體邏輯,並提供給 AD Controller 調用。
    • kubelet 的 Volume Manager 負責 volume 的 mount/unmount。In-Tree 插件中實現 MountDevice、SetUp 等接口,Volume Manager 調用其完成准備 volume 的最后一步。
    • 另外,Scheduler 中也有 volume 相關的邏輯,我們添加了一個 predicate 策略:MaxQcloudCbsVolumeCount,該策略主要實現調度器感知節點 maxAttachLimit特性。而 Scheduler 原生的一個 predicate 策略:NoVolumeZoneConflictPred,是用來把 pod 調度到已有 PV 所在 zone 的節點,這可以避免雲盤跨可用區掛載的問題;對於新建 PV 的話,避免雲盤跨可用區掛載問題則由拓撲感知特性完成。

    CSI 插件

    CSI 是 Kubernetes 社區擴展卷的標准和推薦方式。TKE 的 CSI 插件包含 CBS、CFS、COS 三個 driver,本節重點介紹 CBS CSI driver,並與 QcloudCbs 進行對比。3個 driver 的靜態 pv 和動態 pv 的支持情況如下表所示:

    騰訊雲存儲 靜態數據卷 動態數據卷
    雲硬盤(CBS) 支持 支持
    文件存儲(CFS) 支持 支持
    對象存儲(COS) 支持 不支持

    CBS CSI 特性及與 QcloudCbs 對比

    • CBS CSI 比 QcloudCbs 多幾個特性:volume 在線擴容,volume 快照和恢復。
    存儲插件 靜態數據卷 動態數據卷 拓撲感知 調度器感知節點maxAttachLimit 卷在線擴容 卷快照&恢復
    CBS CSI
    QcloudCbs(In-Tree) × ×

    原理簡介

    CSI 原理簡介

    CSI 原理參考上圖。要實現一個 CSI driver,一般需要實現以下 3 個 gRPC services(CSI Controller Service 可選):

    • CSI Identity Services:提供 driver 信息(drivername,版本等)

    • CSI Controller Services

      (可選):controller 負責創刪卷、attach/detach、擴容、快照等。涉及的方法如下:

      • CreateVolume/DeleteVolume
      • Controller[Publish|Unpublish]Volume (對應attach/detach)
      • CreateSnapshot/DeleteSnapshot/ListSnapshots
      • ControllerExpandVolume
    • CSI Node Services

      :負責向節點注冊 driver,mount/unmount。涉及的方法如下:

      • NodeStageVolume/NodeUnstageVolume((un)mount device)
      • NodePublishVolume/NodeUpPublishVolume((un)mount volume)

    在我們實現之外,kuberntes Team 還提供了多個外部組件,用於溝通 k8s 原生組件(apiserver、controller manager、kubelet)與自己實現的 CSI driver。

    • external-provisioner:watch PersistentVolumeClaim(PVC)對象,調用 driver 的CreateVolume/DeleteVolume
    • external-attacher:watch VolumeAttachment對象,調用 driver 的Controller[Publish|Unpublish]Volume
    • external-resizer: watch PersistentVolumeClaim對象,調用 driver 的ControllerExpandVolume
    • external-snapshottersnapshot-controller:snapshot-controller watch VolumeSnapshotVolumeSnapshotContent CRD 對象,external-snapshotter watch VolumeSnapshotContent對象。調用 driver 的CreateSnapshot/DeleteSnapshot/ListSnapshots
    • *node-driver-registrar*:使用NodeGetInfo獲取 driver 信息,然后使用 kubelet 插件注冊機制注冊 driver。
    CBS CSI 部署圖

    CBS CSI 使用社區推薦部署方式,包含兩個 workload:

    • 一個 DaemonSet,也就是每個 Node 會有一個,我們可以簡單稱為NodePlugin,由 CBS CSI Driver 和 node-driver-registrar 兩個容器組成。負責向節點注冊 driver,並提供 mount 的能力。
    • 一個 StatefulSet/Deployment,我們可以簡稱為Controller。由 driver 和多個 sidecar(external-provisioner、external-attacher、external-resizer、external-snapshotter、snapshot-controller)一起構成,提供創刪卷、attach/detach、擴容、快照等能力

    CBS CSI 插件的 mount 是 driver 容器執行的,它是如何 mount 到 Node 上的?
    • 答案是:掛載傳播(Mount propagation)。掛載傳播允許容器內的 mount 在容器外可見。參見https://stupefied-goodall-e282f7.netlify.app/contributors/design-proposals/node/propagation/
    • CBS CSI 的 global mount 階段(NodeStageVolume)要把設備 mount 到/var/lib/kubelet/plugins的子目錄下;之后 bind mount 階段(NodePublishVolume)的 target path 是/var/lib/kubelet/pods。所以我們為這兩個目錄都設置了掛載傳播(模式為Bidirectional

    使用推薦

    • TKE 集群版本為 1.14+(包含 1.14),推薦使用 CSI 插件
    • 需要在TKE集群中使用 CFS 和 COS 能力,使用 CSI 插件
    • 需要在TKE集群中對 CBS 盤在線擴容和使用快照功能,使用 CSI 插件
    • 已經使用了 QcloudCbs(In-Tree 插件)的,可以繼續使用。(后續會通過 Volume Migration 統一到 CBS CSI)

    最佳實踐

    provisioner:

    • cbs csi —— "com.tencent.cloud.csi.cbs"
    • cbs intree —— "cloud.tencent.com/qcloud-cbs"

    cbs csi 的安裝請參見 cbs csi 文檔,我們也已經在騰訊雲控制台支持擴展組件安裝。

    本節最佳實踐均以 cbs csi 插件為例,相應版本要求也是針對 cbs csi 插件。

    1、如果集群節點跨 zone,如何避免 cbs 雲盤跨可用區掛載?

    cbs 雲盤不支持跨可用區掛載到節點,所以在跨可用區的集群中推薦通過拓撲感知特性來避免跨可用區掛載的問題。

    1.1 使用前注意

    • TKE集群版本 >= 1.14
    • 確保 csi 插件為最新版本

    1.2 如何使用

    使用方式很簡單,在 storageclass 中設置 volumeBindingModeWaitForFirstConsumer,然后使用該 storageClass 即可。intree 和 csi 插件均支持。

    kind: StorageClass
    metadata:
      name: cbs-topo
    parameters:
      type: cbs
    provisioner: com.tencent.cloud.csi.cbs
    reclaimPolicy: Delete
    volumeBindingMode: WaitForFirstConsumer
    

    1.3 原理

    拓撲感知調度需要多個 k8s 組件配合完成,包括 scheduler、pv controller、external-provisioner。流程為:

    1. pv controller watch 到 PVC 對象,發現 storageclass 的 volumeBindingMode 為WaitForFirstConsumer,即不會馬上處理該pvc的創建事件,等待 scheduler 處理;
    2. scheduler 調度完 pod 后,會將 nodeName 以 annotation 的方式打到 PVC 對象上: volume.kubernetes.io/selected-node: 10.0.0.72
    3. pv controller 獲取到 PVC 對象的更新事件后,處理這個 annotation(volume.kubernetes.io/selected-node),根據 nodeName 獲取 Node 對象,傳入到 provisioner 中。
    4. provisioner 根據傳過來的 Node 對象的 label 獲取可用區(failure-domain.beta.kubernetes.io/zone),之后在對應 zone 創建 pv,從而達到和 pod 相同可用區的效果,避免雲盤和 node 在不同可用區而無法掛載。

    2、如何在線擴容雲盤?

    TKE 支持在線擴容 PV,對應的雲盤及文件系統,即不需要重啟 pod 即可完成擴容。但,為了確保文件系統的穩定性,還是推薦先讓雲盤文件系統處於未 mount 情況下。為此,我們將提供兩種擴容方式:

    1. 不重啟 pod 的情況下在線擴容
      • 這種情況下被擴容的雲盤的文件系統被 mount 在節點上,如果 I/O 的話,有可能會出現文件系統擴容錯誤
    2. 重啟 pod 的情況下在線擴容
      • 這種情況下被擴容的雲盤的文件系統被 unmount了。可以避免上面的問題,推薦這種方式

    2.1 使用前注意

    • TKE集群版本 >= 1.16,詳見 cbs csi 文檔
    • 僅 cbs csi 插件支持擴容,確保 csi 插件為最新版本
    • 可以在擴容前使用快照來備份數據,避免擴容失敗導致數據丟失。參見下方 3.2.1 使用快照備份雲硬盤

    2.2 如何使用

    2.2.1 創建允許擴容的 StorageClass

    在 storageclass 中設置allowVolumeExpansiontrue

    allowVolumeExpansion: true
    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: cbs-csi-expand
    parameters:
      diskType: CLOUD_PREMIUM
    provisioner: com.tencent.cloud.csi.cbs
    reclaimPolicy: Delete
    volumeBindingMode: Immediate
    
    2.2.2 不重啟 pod 的情況下在線擴容

    1、確認擴容前 pv 和文件系統狀態,大小均為 20G

    $ kubectl exec ivantestweb-0 df /usr/share/nginx/html
    Filesystem     1K-blocks  Used Available Use% Mounted on
    /dev/vdd        20511312 45036  20449892   1% /usr/share/nginx/html
    $ kubectl get pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                        STORAGECLASS   REASON   AGE
    pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c   20Gi       RWO            Delete           Bound    default/www1-ivantestweb-0   cbs-csi                 20h
    

    2、執行以下命令修改 PVC 對象中的容量,擴容至 30G

    $ kubectl patch pvc www1-ivantestweb-0 -p '{"spec":{"resources":{"requests":{"storage":"30Gi"}}}}'
    

    執行后稍等片刻,可以發現 pv 和文件系統已經擴容至 30G:

    $ kubectl exec ivantestweb-0 df /usr/share/nginx/html
    Filesystem     1K-blocks  Used Available Use% Mounted on
    /dev/vdd        30832548 44992  30771172   1% /usr/share/nginx/html
    $ kubectl get pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                        STORAGECLASS   REASON   AGE
    pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c   30Gi       RWO            Delete           Bound    default/www1-ivantestweb-0   cbs-csi                 20h
    
    2.2.3 重啟 pod 的情況下在線擴容

    1、確認擴容前 pv 和文件系統狀態,大小均為 30G

    $ kubectl exec ivantestweb-0 df /usr/share/nginx/html
    Filesystem     1K-blocks  Used Available Use% Mounted on
    /dev/vdd        30832548 44992  30771172   1% /usr/share/nginx/html
    $ kubectl get pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c 
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                        STORAGECLASS   REASON   AGE
    pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c   30Gi       RWO            Delete           Bound    default/www1-ivantestweb-0   cbs-csi                 20h
    

    2、使用下面命令給 PV 對象打標簽,打一個非法 zone,旨在下一步重啟 pod 后 pod 無法調度到某個節點上

    $ kubectl label pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c failure-domain.beta.kubernetes.io/zone=nozone
    

    3、重啟 pod。重啟后由於 pod 對應的 pv 的標簽表明的是非法 zone,pod 會處於 Pending 狀態

    $ kubectl delete pod ivantestweb-0
    
    $ kubectl get pod ivantestweb-0
    NAME            READY   STATUS    RESTARTS   AGE
    ivantestweb-0   0/1     Pending   0          25s
    
    $ kubectl describe pod ivantestweb-0
    Events:
      Type     Reason            Age                 From               Message
      ----     ------            ----                ----               -------
      Warning  FailedScheduling  40s (x3 over 2m3s)  default-scheduler  0/1 nodes are available: 1 node(s) had no available volume zone.
    

    4、修改 PVC 對象中的容量,擴容至 40G

    kubectl patch pvc www1-ivantestweb-0 -p '{"spec":{"resources":{"requests":{"storage":"40Gi"}}}}'
    

    5、去掉 PV 對象之前打的標簽,這樣 pod 就能調度成功了。

    $ kubectl label pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c failure-domain.beta.kubernetes.io/zone-persistentvolume/pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c labeled
    

    稍等片刻,pod running,對應的 pv 和文件系統也擴容成功,從 30G 擴容到 40G 了

    $ kubectl get pod ivantestweb-0
    NAME            READY   STATUS    RESTARTS   AGE
    ivantestweb-0   1/1     Running   0          17m
    
    $ kubectl get pv pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c
    NAME                                       CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                        STORAGECLASS   REASON   AGE
    pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c   40Gi       RWO            Delete           Bound    default/www1-ivantestweb-0   cbs-csi                 20h
    
    $ kubectl get pvc www1-ivantestweb-0
    NAME                 STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
    www1-ivantestweb-0   Bound    pvc-e193201e-6f6d-48cf-b96d-ccc09225cf9c   40Gi       RWO            cbs-csi        20h
    
    $ kubectl exec ivantestweb-0 df /usr/share/nginx/html
    Filesystem     1K-blocks  Used Available Use% Mounted on
    /dev/vdd        41153760 49032  41088344   1% /usr/share/nginx/html
    

    3、如何創建快照和使用快照來恢復卷?

    3.1 使用前注意

    • TKE集群版本 >= 1.18,詳見 cbs csi 文檔
    • 僅 cbs csi 插件支持快照,確保 csi 插件鏡像為最新版本

    3.2 如何使用

    3.2.1 使用快照備份雲硬盤

    1、使用下面 yaml,創建VolumeSnapshotClass對象

    apiVersion: snapshot.storage.k8s.io/v1beta1
    kind: VolumeSnapshotClass
    metadata:
      name: cbs-snapclass
    driver: com.tencent.cloud.csi.cbs
    deletionPolicy: Delete
    

    創建后顯示:

    $ kubectl get volumesnapshotclass
    NAME            DRIVER                      DELETIONPOLICY   AGE
    cbs-snapclass   com.tencent.cloud.csi.cbs   Delete           17m
    

    2、使用下面 yaml,創建

    apiVersion: snapshot.storage.k8s.io/v1beta1
    kind: VolumeSnapshot
    metadata:
      name: new-snapshot-demo
    spec:
      volumeSnapshotClassName: cbs-snapclass
      source:
        persistentVolumeClaimName: csi-pvc
    

    創建后稍等片刻,volumesnapshot 和 volumesnapshotcontent 對象都創建成功,READYTOUSE為 true:

    $ kubectl get volumesnapshot
    NAME                READYTOUSE   SOURCEPVC            SOURCESNAPSHOTCONTENT   RESTORESIZE   SNAPSHOTCLASS   SNAPSHOTCONTENT                                    CREATIONTIME   AGE
    new-snapshot-demo   true         www1-ivantestweb-0                           10Gi          cbs-snapclass   snapcontent-ea11a797-d438-4410-ae21-41d9147fe610   22m            22m
    $ kubectl get volumesnapshotcontent
    NAME                                               READYTOUSE   RESTORESIZE   DELETIONPOLICY   DRIVER                      VOLUMESNAPSHOTCLASS   VOLUMESNAPSHOT      AGE
    snapcontent-ea11a797-d438-4410-ae21-41d9147fe610   true         10737418240   Delete           com.tencent.cloud.csi.cbs   cbs-snapclass         new-snapshot-demo   22m
    

    具體快照 id 在 volumesnapshotcontent 對象中,status.snapshotHandle(snap-e406fc9m),可以根據這個快照 id 在騰訊雲控制台確認快照是否存在

    $ kubectl get volumesnapshotcontent snapcontent-ea11a797-d438-4410-ae21-41d9147fe610 -oyaml
    apiVersion: snapshot.storage.k8s.io/v1beta1
    kind: VolumeSnapshotContent
    metadata:
      creationTimestamp: "2020-11-04T08:58:39Z"
      finalizers:
      - snapshot.storage.kubernetes.io/volumesnapshotcontent-bound-protection
      name: snapcontent-ea11a797-d438-4410-ae21-41d9147fe610
      resourceVersion: "471437790"
      selfLink: /apis/snapshot.storage.k8s.io/v1beta1/volumesnapshotcontents/snapcontent-ea11a797-d438-4410-ae21-41d9147fe610
      uid: 70d0390b-79b8-4276-aa79-a32e3bdef3d6
    spec:
      deletionPolicy: Delete
      driver: com.tencent.cloud.csi.cbs
      source:
        volumeHandle: disk-7z32tin5
      volumeSnapshotClassName: cbs-snapclass
      volumeSnapshotRef:
        apiVersion: snapshot.storage.k8s.io/v1beta1
        kind: VolumeSnapshot
        name: new-snapshot-demo
        namespace: default
        resourceVersion: "471418661"
        uid: ea11a797-d438-4410-ae21-41d9147fe610
    status:
      creationTime: 1604480319000000000
      readyToUse: true
      restoreSize: 10737418240
      snapshotHandle: snap-e406fc9m
    
    3.2.2 從快照恢復卷(雲硬盤)

    1、我們在 3.2.1 中創建的VolumeSnapshot的對象名為new-snapshot-demo,使用下面 yaml 來從快照恢復一個卷

    apiVersion: v1
    kind: PersistentVolumeClaim
    metadata:
      name: restore-test
    spec:
      storageClassName: cbs-csi
      dataSource:
        name: new-snapshot-demo
        kind: VolumeSnapshot
        apiGroup: snapshot.storage.k8s.io
      accessModes:
        - ReadWriteOnce
      resources:
        requests:
          storage: 10Gi
    

    發現 restore 的 pvc 已經創建出來,diskid 也在 pv 中(disk-gahz1kw1)

    $ kubectl get pvc restore-test
    NAME           STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS   AGE
    restore-test   Bound    pvc-80b98084-29a3-4a38-a96c-2f284042cf4f   10Gi       RWO            cbs-csi        97s
    $ kubectl get pv pvc-80b98084-29a3-4a38-a96c-2f284042cf4f -oyaml
    apiVersion: v1
    kind: PersistentVolume
    metadata:
      annotations:
        pv.kubernetes.io/provisioned-by: com.tencent.cloud.csi.cbs
      creationTimestamp: "2020-11-04T12:08:25Z"
      finalizers:
      - kubernetes.io/pv-protection
      name: pvc-80b98084-29a3-4a38-a96c-2f284042cf4f
      resourceVersion: "474676883"
      selfLink: /api/v1/persistentvolumes/pvc-80b98084-29a3-4a38-a96c-2f284042cf4f
      uid: 5321df93-5f21-4895-bafc-71538d50293a
    spec:
      accessModes:
      - ReadWriteOnce
      capacity:
        storage: 10Gi
      claimRef:
        apiVersion: v1
        kind: PersistentVolumeClaim
        name: restore-test
        namespace: default
        resourceVersion: "474675088"
        uid: 80b98084-29a3-4a38-a96c-2f284042cf4f
      csi:
        driver: com.tencent.cloud.csi.cbs
        fsType: ext4
        volumeAttributes:
          diskType: CLOUD_PREMIUM
          storage.kubernetes.io/csiProvisionerIdentity: 1604478835151-8081-com.tencent.cloud.csi.cbs
        volumeHandle: disk-gahz1kw1
      nodeAffinity:
        required:
          nodeSelectorTerms:
          - matchExpressions:
            - key: topology.com.tencent.cloud.csi.cbs/zone
              operator: In
              values:
              - ap-beijing-2
      persistentVolumeReclaimPolicy: Delete
      storageClassName: cbs-csi
      volumeMode: Filesystem
    status:
      phase: Bound
    

    參考

    【騰訊雲原生】雲說新品、雲研新術、雲游新活、雲賞資訊,掃碼關注同名公眾號,及時獲取更多干貨!!


    免責聲明!

    本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



     
    粵ICP備18138465號   © 2018-2025 CODEPRJ.COM