k8s架構


 

master節點

 

k8s的集群由master和node組成,節點上運行着若干k8s服務。

 

master節點之上運行着的后台服務有kube-apiserver 、kube-scheduler、kube-controller-manager、etcd和pod網絡。如下圖所示

 

1. API Server(kube-apiserver)

API Server是k8s的前端接口,各種客戶端工具以及k8s其他組件可以通過它管理集群的各種資源。

 

2.Scheduler(kube-scheduler)

scheduer負責決定將pod放在哪個node上運行。另外scheduler在調度時會充分考慮集群的架構,當前各個節點的負載,以及應用對高可用、性能、數據親和性的需求。

 

3.Controller Manager(kube-controller-manager)

負責管理集群的各種資源,保證資源處於預期的狀態

 

4.etcd

負責保存k8s集群的配置信息和各種資源的狀態信息,當數據發生變化時,etcd會快速的通知k8s相關組件。

 

5.pod網絡

pod要能夠相互通信,k8s集群必須掌握pod網絡,fannel是其中一個可選的方案

 

node節點

 

node是pod運行的地方。node上運行的k8s組件有kublet、kube-proxy和pod網絡(例如flannel),如下圖所示:

 

 1.kubelet

是node的agent,當scheduler去確定在某個node上運行pod后,會將pod的具體配置信息發送給該節點的kubelet,kubelet會根據遮羞信息創建和運行容器,並向master報告運行狀態。

 

2.kube-proxy

每個node都會運行kube-proxy服務,外界通過service訪問pod,kube-proxy負責將降訪問service的TCP/UDP數據流轉發到后端的容器。如果有多個副本,kube-proxy會實現負載均衡。

 

3.pod網絡

pod能能夠互相通信,k8s集群必須部署pod網絡,flannel是其中一個可以選擇的方案

 

完整的架構圖

為什么 k8s-master 上也有 kubelet 和 kube-proxy 呢?

這是因為 Master 上也可以運行應用,即 Master 同時也是一個 Node。

 

幾乎所有的 Kubernetes 組件本身也運行在 Pod 里,執行如下命令:

復制代碼
[root@ken ~]# kubectl get pod --all-namespaces -o wide NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES kube-system coredns-78d4cf999f-dbxpc 1/1 Running 0 4h40m 10.244.0.2 ken <none> <none> kube-system coredns-78d4cf999f-q9vq2 1/1 Running 0 4h40m 10.244.0.3 ken <none> <none> kube-system etcd-ken 1/1 Running 0 4h39m 172.20.10.2 ken <none> <none> kube-system kube-apiserver-ken 1/1 Running 0 4h39m 172.20.10.2 ken <none> <none> kube-system kube-controller-manager-ken 0/1 CrashLoopBackOff 23 4h39m 172.20.10.2 ken <none> <none> kube-system kube-flannel-ds-amd64-bq6jx 1/1 Running 0 4h4m 172.20.10.9 host2 <none> <none> kube-system kube-flannel-ds-amd64-fd8mv 1/1 Running 0 4h24m 172.20.10.2 ken <none> <none> kube-system kube-flannel-ds-amd64-ssqcl 1/1 Running 0 4h5m 172.20.10.7 host1 <none> <none> kube-system kube-proxy-7cnsr 1/1 Running 0 4h5m 172.20.10.7 host1 <none> <none> kube-system kube-proxy-gwmr2 1/1 Running 0 4h40m 172.20.10.2 ken <none> <none> kube-system kube-proxy-n6zxl 1/1 Running 0 4h4m 172.20.10.9 host2 <none> <none> kube-system kube-scheduler-ken 0/1 CrashLoopBackOff 21 4h39m 172.20.10.2 ken <none> <none>
復制代碼

 

 

Kubernetes 的系統組件都被放到kube-system namespace 中。這里有一個kube-dns 組件,它為 Cluster 提供 DNS 服務,我們后面會討論。kube-dns是在執行kubeadm init 時作為附加組件安裝的。

kubelet 是唯一沒有以容器形式運行的 Kubernetes 組件,它在系統中通過 Systemd 運行。

復制代碼
[root@ken ~]# systemctl status kubelet
● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/etc/systemd/system/kubelet.service; enabled; vendor preset: disabled) Drop-In: /etc/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since Tue 2019-01-29 10:39:16 CST; 4h 44min ago Docs: https://kubernetes.io/docs/ Main PID: 6350 (kubelet) Tasks: 35 Memory: 87.7M CGroup: /system.slice/kubelet.service └─6350 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kub... ...
復制代碼

 

k8s集群架構工作演示

 

部署httpd應用 

[root@ken ~]# kubectl run httpd-ken --generator=run-pod/v1 --image=httpd --replicas=2 pod/httpd-ken1 created

 

等待一段時間,應用部署完成。

[root@ken ~]# kubectl get deployment NAME READY UP-TO-DATE AVAILABLE AGE httpd-ken 2/2 2 2 20m

 

k8s 部署了k8s httpd-ken,有兩個副本 Pod,分別運行在k8s-node1和k8s-node2。

復制代碼
[root@ken ~]# kubectl get pod -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES httpd-ken-5c949b96f-9cd52 1/1 Running 0 3m50s 10.244.1.3 host1 <none> <none> httpd-ken-5c949b96f-twdsd 1/1 Running 0 3m50s 10.244.2.3 host2 <none> <none>
復制代碼

 

整個部署過程:

 

① kubectl 發送部署請求到 API Server。

② API Server 通知 Controller Manager 創建一個 deployment 資源。

Scheduler 執行調度任務,將兩個副本 Pod 分發到 k8s-node1 和 k8s-node2。

④ k8s-node1 和 k8s-node2 上的 kubectl 在各自的節點上創建並運行 Pod。

補充兩點:

  1. 應用的配置和當前狀態信息保存在 etcd 中,執行kubectl get pod 時 API Server 會從 etcd 中讀取這些數據。

  2. flannel 會為每個 Pod 都分配 IP。因為沒有創建 service,目前 kube-proxy 還沒參與進來。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM