最近幾天在測試StatefulSet的使用時,遇到了接觸Kubernetes以來最大的一個困難,即配置StorageClass動態生成PersistentVolume。考慮到NFS存儲操作相對簡潔,因此在剛接觸StorageClass的情況下選擇了NFS作為Provisioner,沒想到卻是一段噩夢的開始。。。前前后后花費了將近一個星期的時間,才初步實現了PV的動態創建,並完成了一個簡單的StatefulSet的案例。現在將我踩過的坑記錄如下:
一、自己配置NFS系統
主要參考了下面的這篇文章:
http://www.showerlee.com/archives/2280
注意,文章中配置NFS共享目錄的"# echo -e "/srv/pv-demo kube-master(rw,sync)" > /etc/export"應為"/etc/exports"。
完成配置后,可以參考官方文檔編寫yaml文件:
https://github.com/kubernetes-incubator/external-storage/tree/master/nfs/docs/demo
最后一直沒有成功,花費了好多天調試都只能實現數據的本地掛載,無法跨機器遠程掛載,所以不詳細寫了。
二、使用已配置好的NFS系統
因為公司剛好有已經配置好的NFS系統,在自己搭建不成功的情況下就使用了現成的系統。仍然是主要參考官方文檔:
https://github.com/kubernetes-incubator/external-storage/tree/master/nfs-client
1.創建測試的靜態PV和PVC
首先,需要利用靜態的PV和PVC來測試一下NFS系統能否正常工作:
pv.yaml
apiVersion: v1 kind: PersistentVolume metadata: name: mypv1 spec: capacity: storage: 4Gi accessModes: - ReadWriteOnce persistentVolumeReclaimPolicy: Recycle nfs: path: [已配置的NFS系統的路徑] server: [已配置的NFS系統的IP地址]
pvc.yaml
kind: PersistentVolumeClaim apiVersion: v1 metadata: name: mypvc1 spec: accessModes: - ReadWriteOnce resources: requests: storage: 100Mi
創建二者后,如果能夠自動綁定,說明NFS系統工作正常,這樣才能執行下面的步驟。
2.運行nfs-client-provisioner
想要動態生成PV,需要運行一個NFS-Provisioner服務,將已配置好的NFS系統相關參數錄入,並向用戶提供創建PV的服務。官方推薦使用Deployment運行一個replica來實現,當然也可以使用Daemonset等其他方式,這些都在官方文檔中提供了。
在創建Deployment之前,一定要按照官方文檔中的Step 3部分配置相關的內容。
編寫rbac.yaml文件如下:
kind: ClusterRole apiVersion: rbac.authorization.k8s.io/v1 metadata: name: nfs-provisioner-runner rules: - apiGroups: [""] resources: ["persistentvolumes"] verbs: ["get", "list", "watch", "create", "delete"] - apiGroups: [""] resources: ["persistentvolumeclaims"] verbs: ["get", "list", "watch", "update"] - apiGroups: ["storage.k8s.io"] resources: ["storageclasses"] verbs: ["get", "list", "watch"] - apiGroups: [""] resources: ["events"] verbs: ["create", "update", "patch"] --- kind: ClusterRoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: run-nfs-provisioner subjects: - kind: ServiceAccount name: nfs-provisioner namespace: default roleRef: kind: ClusterRole name: nfs-provisioner-runner apiGroup: rbac.authorization.k8s.io --- kind: Role apiVersion: rbac.authorization.k8s.io/v1 metadata: name: leader-locking-nfs-provisioner rules: - apiGroups: [""] resources: ["endpoints"] verbs: ["get", "list", "watch", "create", "update", "patch"] --- kind: RoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: leader-locking-nfs-provisioner subjects: - kind: ServiceAccount name: nfs-provisioner # replace with namespace where provisioner is deployed namespace: default roleRef: kind: Role name: leader-locking-nfs-provisioner apiGroup: rbac.authorization.k8s.io
編寫serviceaccount.yaml文件如下:
apiVersion: v1 kind: ServiceAccount metadata: name: nfs-provisioner
注意,針對已配置好的NFS系統和自己搭建NFS系統,Deployment中使用的鏡像不同!這里踩了一個大坑,在轉為使用現成系統后沒有修改原來的yaml文件中的鏡像,導致持續報錯,調試了好長時間才意識到問題。
編寫deployment.yaml文件如下:
kind: Deployment apiVersion: extensions/v1beta1 metadata: name: nfs-provisioner spec: replicas: 1 strategy: type: Recreate template: metadata: labels: app: nfs-provisioner spec: serviceAccount: nfs-provisioner containers: - name: nfs-provisioner image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner volumeMounts: - name: nfs-client-root mountPath: /persistentvolumes env: - name: PROVISIONER_NAME value: example.com/nfs - name: NFS_SERVER value: [已配置的NFS系統的IP地址] - name: NFS_PATH value: [已配置的NFS系統的掛載路徑] volumes: - name: nfs-client-root nfs: server: [已配置的NFS系統的IP地址] path: [已配置的NFS系統的掛載路徑]
注意,官方文檔提供的鏡像在國內無法正常下載,在網上找到了一個阿里雲的鏡像作為替代。參考https://www.centos.bz/2018/04/%E5%AE%9E%E6%88%98kubernetes%E5%8A%A8%E6%80%81%E5%8D%B7%E5%AD%98%E5%82%A8nfs/
這個鏡像中volume的mountPath默認為/persistentvolumes,不能修改,否則運行時會報錯。
創建后觀察Pod能否正常運行。后面如果出現錯誤,可以用kubectl logs查看這個Pod的日志來查看錯誤,進行調試。
3.創建StorageClass
編寫並創建storageclass.yaml如下:
kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: nfs provisioner: example.com/nfs
4.創建測試claim
接下來要創建測試的claim,以檢測StorageClass能否正常工作:
編寫並創建test-claim.yaml如下,注意storageClassName應確保與上面創建的StorageClass名稱一致。
kind: PersistentVolumeClaim apiVersion: v1 metadata: name: test-claim1 spec: accessModes: - ReadWriteMany resources: requests: storage: 1Mi storageClassName: nfs
創建后,用kubectl get pvc查看,觀察新創建的PVC能夠自動綁定PV。
5.創建測試Pod
創建一個測試的Pod使用這個PVC,編寫test-pod.yaml文件如下:
kind: Pod apiVersion: v1 metadata: name: test-pod spec: containers: - name: test-pod image: busybox command: - "/bin/sh" args: - "-c" - "touch /mnt/SUCCESS && exit 0 || exit 1" volumeMounts: - name: nfs-pvc mountPath: "/mnt" restartPolicy: "Never" volumes: - name: nfs-pvc persistentVolumeClaim: claimName: test-claim1
查看Pod狀態是否變為Completed。如果是,則應該能在NFS系統的共享路徑中看到一個SUCCESS文件。
這樣,StorageClass動態創建PV的功能就成功實現了。
6.創建StatefulSet案例
本來做StorageClass測試的目的就是為了實現StatefulSet,結果越做越跑偏。。。現在回到原本的目標,來實現一個簡單的StatefulSet。
編寫statefulset.yaml文件如下:
apiVersion: apps/v1beta1 kind: StatefulSet metadata: name: web spec: serviceName: "nginx1" replicas: 2 volumeClaimTemplates: - metadata: name: test annotations: volume.beta.kubernetes.io/storage-class: "nfs" spec: accessModes: [ "ReadWriteOnce" ] resources: requests: storage: 1Gi template: metadata: labels: app: nginx1 spec: serviceAccount: nfs-provisioner containers: - name: nginx1 image: nginx imagePullPolicy: IfNotPresent volumeMounts: - mountPath: "/persistentvolumes" name: test
注意,這里的mountPath必須指定為/persistentvolumes,否則會出現表面上PV創建成功,其實在NFS系統中找不到的問題。。。
當發現兩個Pod都正常運行,且在NFS系統中能夠找到PV,說明試驗成功。
進一步的,可以用kubectl exec -it 進入Pod,並創建一個文件,看看在PV中能否發現相同的文件已生成。