pod 配置
這節主要來研究 pod.spec.containers 屬性,這也是 pod 配置中最為關鍵的一項配置
[root@dce-10-6-215-215 ~]# kubectl explain pod.spec.containers KIND: Pod VERSION: v1 RESOURCE: containers <[]Object> # 數組,代表可以有多個容器 FIELDS: name <string> # 容器名稱 image <string> # 容器需要的鏡像地址 imagePullPolicy <string> # 鏡像拉取策略 command <[]string> # 容器的啟動命令列表,如不指定,使用打包時使用的啟動命令 args <[]string> # 容器的啟動命令需要的參數列表 env <[]Object> # 容器環境變量的配置 ports <[]Object> # 容器需要暴露的端口號列表 resources <Object> # 資源限制和資源請求的設置
基本配置 name、image
創建 pod-base.yaml 文件,內容如下:
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou # 命名空間 labels: user: heima spec: containers: - name: nginx image: nginx:1.14 - name: busybox image: busybox:1.30
上面定義了一個比較簡單 Pod 的配置,里面有兩個容器:
- nginx:用 1.14 版本的 nginx 鏡像創建
- busybox:用 1.30 版本的 busybox 鏡像創建,(busybox是一個小巧的linux命令集合)
# 創建 pod [root@dce-10-6-215-215 ~]# kubectl apply -f pod-base.yaml pod/pod-base created # 查看 pod # READY 1/2 : 表示當前 Pod 中有2個容器,其中 1 個准備就緒,1 個未就緒 # RESTARTS : 重啟次數,因為有 1 個容器故障了,Pod 一直在重啟試圖恢復它 [root@dce-10-6-215-215 ~]# kubectl get pod -n zouzou NAME READY STATUS RESTARTS AGE pod-base 1/2 CrashLoopBackOff 3 108s
可以通過describe查看內部的詳情,通過下面的命令看 Events 事件,可以看到 nginx 鏡像是正常啟動的,busybox 鏡像是失敗的,為什么會失敗,后面在說
kubectl delete pod nginx nginx1 nginx2 -n zouzou
鏡像拉取策略 imagePullPolicy
在我們創建 pod 的時候,總是要使用到鏡像,那是使用我們本地的鏡像呢?還是使用官網的鏡像呢?如果本地沒有了怎么處理呢?這里就涉及到了鏡像的拉取策略
創建 pod-imagepullpolicy.yaml 文件,內容如下
apiVersion: v1 kind: Pod metadata: name: pod-imagepullpolicy namespace: zouzou spec: containers: - name: nginx image: nginx:1.14 imagePullPolicy: Never # 用於設置鏡像拉取策略 - name: busybox image: busybox:1.30
imagePullPolicy:用於設置鏡像拉取策略,k8s 支持配置三種拉取策略
- Always:總是從遠程倉庫拉取鏡像
- ifNotPresent:本地有則使用本地鏡像,本地沒有則從遠程倉庫拉取鏡像
- Never:只使用本地鏡像,從不去遠程倉庫拉取,本地沒有就報錯
默認值說明:
- 如果鏡像 tag 為具體版本號,默認策略是:ifNotPresent
- 如果鏡像 tag 為:latest,默認策略是 Always,因為不知道本地的是不是最新的鏡像
啟動命令 command
在前面的案例中,一直有一個問題沒有解決,就是我們的 busybox 容器一直沒有成功運行,那么到底是什么原因導致這個容器的故障呢?
原來 busybox 並不是一個程序,而是類似於一個工具類的集合,k8s 集群啟動管理后,它會自動關閉,解決方法就是讓其一直在運行,這就用到了 command 配置
修改 pod-base.yaml 文件,內容如下
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou # 命名空間 labels: user: heima spec: containers: - name: nginx image: nginx:1.14 - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","touch /tmp/hello.txt;while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done;"] # command 命令
command,用於在 pod 中的容器初始化完畢之后運行一個命令
- "/bin/sh","-c", 使用sh執行命令
- touch /tmp/hello.txt; 創建一個/tmp/hello.txt 文件
- while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done; 每隔3秒向文件中寫入當前時間,在容器里面
先刪除之前的 pod 在創建
# 刪除之前的 pod [root@dce-10-6-215-215 ~]# kubectl delete -f pod-base.yaml pod "pod-base" deleted # 重新創建 pod [root@dce-10-6-215-215 ~]# kubectl apply -f pod-base.yaml pod/pod-base created # 查看 pod,兩個容器都正常運行了 [root@dce-10-6-215-215 ~]# kubectl get pod -n zouzou NAME READY STATUS RESTARTS AGE pod-base 2/2 Running 0 7s
上面我們運行了 busybox 容器,每隔三秒將當前的時間寫入到文件里,那我們怎么查看呢?
時間是寫入到容器的 /tmp/hello.txt 文件里的,所以我們要看的話需要進入到容器里面,使用下面命令進入到容器里面
# -it 交互式進入,pod-base 是 pod 的名字,-n zouzou 命名空間下,-c busybox 進入到 busybox 這個容器里面,要跟 yaml 里寫的 name 一樣 kubectl exec -it pod-base -n zouzou -c busybox /bin/sh
除了 command 參數外,還有一個 args 參數
通過上面發現 command 已經可以完成啟動命令和傳遞參數的功能,為什么這里還要提供一個 args 選項,用於傳遞參數呢?這其實跟 docker 有點關系,kubernetes 中的 command、args 兩項其實是實現覆蓋 Dockerfile 中 ENTRYPOINT 的功能。
- 如果 command 和 args 均沒有寫,那么用 Dockerfile 的配置。
- 如果 command 寫了,但 args 沒有寫,那么 Dockerfile 默認的配置會被忽略,執行輸入的 command
- 如果 command 沒寫,但 args 寫了,那么 Dockerfile 中配置的 ENTRYPOINT 的命令會被執行,使用當前 args 的參數
- 如果 command 和 args 都寫了,那么 Dockerfile 的配置被忽略,執行 command 並追加上 args 參數
環境變量 env
創建 pod-env.yaml 文件,內容如下:
apiVersion: v1 kind: Pod metadata: name: pod-env namespace: zouzou spec: containers: - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","while true;do /bin/echo $(date +%T);sleep 60; done;"] env: # 設置環境變量列表,設置了兩個 username=admin 和 password=123456 - name: "username" value: "admin" - name: "password" value: "123456"
env,環境變量,用於給 pod 中的容器設置環境變量
# 創建Pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-env.yaml pod/pod-env created # 進入容器,輸出環境變量 [root@dce-10-6-215-215 ~]# kubectl exec pod-env -n dev -c busybox -it /bin/sh / # echo $username admin / # echo $password 123456
這種方式不是很推薦,推薦將這些配置單獨存儲在配置文件中,這種方式將在后面介紹
端口設置 ports
首先看下 ports 支持的子選項
[root@dce-10-6-215-215 ~]# kubectl explain pod.spec.containers.ports KIND: Pod VERSION: v1 RESOURCE: ports <[]Object> FIELDS: name <string> # 端口名稱,如果指定,必須保證name在pod中是唯一的 containerPort<integer> # 容器要監聽的端口(0<x<65536),一個 pod 里有多個容器 hostPort <integer> # 容器要在主機上公開的端口,也就是 worker 的機器,如果設置,主機上只能運行容器的一個副本(一般省略) hostIP <string> # 要將外部端口綁定到的主機 IP,也就是 worker 的機器(一般省略) protocol <string> # 端口協議。必須是UDP、TCP或SCTP。默認為“TCP”。
接下來,編寫一個測試案例,創建 pod-ports.yaml
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou labels: user: heima spec: containers: - name: nginx image: nginx:1.14 ports: # 設置容器暴露的端口列表 - name: nginx-port containerPort: 80 protocol: TCP
創建 pod
# 創建 pod kubectl apply -f pod-ports.yaml #查看詳細信息 kubectl get pod -n zouzou -o yaml
但這樣外網還是訪問不了的,如果外網要訪問,就要用 service 了
資源配額 resources
也就是我們 Pod 在進行調度的時候,可以對調度的資源進行限制,例如我們限制 Pod 調度時使用的資源是 2C4G,那么在調度對應的 node 節點時,只會占用對應的資源,對於不滿足資源的節點,將不會進行調度
容器中的程序要運行,肯定是要占用一定資源的,比如 cpu 和內存等,如果不對某個容器的資源做限制,那么它就可能吃掉大量資源,導致其它容器無法運行。針對這種情況,kubernetes 提供了對內存和 cpu 的資源進行配額的機制,這種機制主要通過 resources 選項實現,他有兩個子選項:
- limits:用於限制運行時容器的最大占用資源,當容器占用資源超過 limits 時會被終止,並進行重啟
- requests :用於設置容器需要的最小資源,如果環境資源不夠,容器將無法啟動
可以通過上面兩個選項設置資源的上下限。
接下來,編寫一個測試案例,創建 pod-resources.yaml
apiVersion: v1 kind: Pod metadata: name: pod-resources namespace: zouzou spec: containers: - name: nginx image: nginx:1.14 resources: # 資源配額 limits: # 限制資源(上限) cpu: "2" # CPU限制,單位是core數 memory: "10Gi" # 內存限制 requests: # 請求資源(下限) cpu: "1" # CPU限制,單位是core數 memory: "10Mi" # 內存限制
在這對 cpu 和 memory 的單位做一個說明:
- cpu:core 數,可以為整數或小數
- memory: 內存大小,可以使用 Gi、Mi、G、M 等形式
# 運行Pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-resources.yaml pod/pod-resources created # 查看發現 pod 運行正常 [root@dce-10-6-215-215 ~]# kubectl get pod pod-resources -n zouzou NAME READY STATUS RESTARTS AGE pod-resources 1/1 Running 0 39s # 接下來,停止 Pod [root@dce-10-6-215-215 ~]# kubectl delete -f pod-resources.yaml pod "pod-resources" deleted # 編輯 pod,修改 resources.requests.memory 的值為 10Gi [root@dce-10-6-215-215 ~]# vim pod-resources.yaml # 再次啟動 pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-resources.yaml pod/pod-resources created # 查看 Pod 狀態,發現 Pod 啟動失敗 [root@dce-10-6-215-215 ~]# kubectl get pod pod-resources -n zouzou -o wide NAME READY STATUS RESTARTS AGE pod-resources 0/1 Pending 0 20s # 查看pod詳情會發現,如下提示 [root@dce-10-6-215-215 ~]# kubectl describe pod pod-resources -n zouzou ...... Warning FailedScheduling 35s default-scheduler 0/3 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 2 Insufficient memory.(內存不足)