Kubernetes(K8S)的基礎概念


一、Kubernetes介紹

1、什么是Kubernetes?

用於自動部署、擴展和管理“容器化( containerized) 應用程序”的開源系統

可以理解成K8S是負責自動化運維管理多個容器化程序(比如Docker)的集群,是–個生態極其豐富的容器編排框架工具

由來:

k8S由google的Borg系統(博格系統,google內部使用的大規模容器編排工具)作為原型,后經G0語言延用Borg的思路重寫並捐獻給CNCF基金會開源

含義

詞根源於希臘語的舵手、飛行員

官網:

https://kubernetes.io

GitHub: https://github.com/kubernetes/kubernetes

2、為什么要用K8S?

       試想下傳統的后端部署辦法:把程序包(包括可執行二進制文件、配置文件等)放到服務器上,接着運行啟動腳本把程序跑起來,同時啟動守護腳本定期檢查程序運行狀態、必要的話重新拉起程序

設想一下,如果服務的請求量上來,已部署的服務響應不過來怎么辦?傳統的做法往往是,如果請求量、內存、CPU超過閾值做了告警,運維人員馬上再加幾台服務器,部署好服務之后,接入負載均衡來分擔已有服務的壓力

這樣問題就出現了:從監控告警到部署服務,中間需要人力介入! 那么,有沒有辦法自動完成服務的部署、更新、卸載和擴容、縮容呢?

而這就是K8S要做的事情: 自動化運維管理容器(Docker) 程序。K8s的目標是讓部署容器化應用簡單高效

K8S解決了裸跑Docker的若干痛點:

●單機使用,無法有效集群

●隨着容器數量的.上升,管理成本攀升

●沒有有效的容災、自愈機制

●沒有預設編排模板,無法實現快速、大規模容器調度

●沒有統一 的配置管理中心工具

●沒有容器生命周期的管理工具

●沒有圖形化運維管理工具

k8s提供了容器編排,資源調度,彈性伸縮,部署管理,服務發現等一系列功能

3、k8s的特性

●彈性伸縮

使用命令、UI或者基於CPU使用情況自動快速擴容和縮容應用程序實例,保證應用業務高峰並發時的高可用性:業務低峰時回收資源,以最小成本運行服務

●自我修復

在節點故障時重新啟動失敗的容器,替換和重新部署,保證預期的副本數量:殺死健康檢查失敗的容器,並且在未准備好之前不會處理客戶端請求,確保線上服務不中斷

●服務發現和負載均衡

K8s為多個容器提供一-個統一訪問入口(內部IP地址和一個DNS名稱),並且負載均衡關聯的所有容器,使得用戶無需考慮容器IP問題

●自動發布(默認滾動發布模式)和回滾

K8S采用滾動更新策略更新應用,一次更新一個Pod,而不是同時刪除所有Pod,如果更新過程中出現問題,將回滾更改,確保升級不受影響業務

●集中化配置管理和密鑰管理

管理機密數據和應用程序配置,而不需要把敏感數據暴露在鏡像里,提高敏感數據安全性。並可以將一些常用的配置存儲在K8S中,方便應用程序使用

●存儲編排,支持外掛存儲並對外掛存儲資源進行編排

掛載外部存儲系統,無論是來自本地存儲,公有雲( 如AWS),還是網絡存儲( 如NFS、Glusterfs、Ceph) 都作為集群資源的一部分使用, 極大提高存儲使用靈活性

●任務批處理運行

提供一次性任務,定時任務:滿足批量數據處理和分析的場景

二、k8s集群架構與組件

K8s是屬於主從設備模型(Master-Slave 架構),即有Master 節點負責集群的調度、管理和運維,Slave 節點是集群中的運算工作負載節點

在K8S中,主節點一般被稱為Master 節點,而從節點則被稱為Worker Node 節點,每個Node 都會被Master 分配一些工作負載

Master組件可以在群集中的任何計算機上運行,但建議Master節點占據一個獨立的服務器

因為Master是整個集群的大腦,如果Master所在節點宕機或不可用,那么所有的控制命令都將失效

除了Master, 在K8s集群中的其他機器被稱為Worker Node節點,當某個Node宕機時,其上的工作負載會被Master自動轉移到其他節點上去

1、Master組件

Master:集群控制管理節點,所有的命令都經由master處理

 

●Kube-apiserver

用於暴露Kubernetes API,任何資源請求或調用操作都是通過kube-apiserver提供的接口進行。以HTTP Restful API

提供接口服務,所有對象資源的增刪改查和監聽操作都交給API Server處理后再提交給Etcd存儲

可以理解成API Server 是K8S的請求入口服務API Server 負責接收K8S所有請求(來自UI界面或者CLI命令行工具),

然后根據用戶的具體請求,去通知其他組件干活。可以說API Server 是K8S集群架構的大腦

●Kube-controller-manager

運行管理控制器,是K8S 集群中處理常規任務的后台線程,是K8S集群里所有資源對象的自動化控制中心。

在K8S集群中,一個資源對應一個控制器,而Controller manager就是負責管理這些控制器的

由一系列控制器組成,通過APIServer監控整個集群的狀態,並確保集群處於預期的工作狀態,比如當某個Node意外宕機時,Controller Manager會及時發現並執行自動化修復流程,確保集群始終處於預期的工作狀態

這些控制器主要包括:

Node Controller(節點控制器):負責在節點出現故障時發現和響應

Replication Controller (副本控制器) :負責保證集群中一個RC (資源對 象Replication Controller) 所關聯的Pod

副本數始終保持預設值。可以理解成確保集群中有且僅有N個Pod實例,N是RC中定義的Pod副本數量

Endpoints Controller (端點控制器) :填充端點對象 (即連接Services 和Pods) ,負責監聽 Service 和對應的Pod副本的變化

可以理解端點是一個服務暴露出來的訪問點,如果需要訪問一個服務,則必須知道它的endpoint

Service Account & Token Controllers ( 服務帳戶和令牌控制器) :為新的命名空間創建默認帳戶和API訪問令牌

ResourceQuota Controller(資源配額控制器):確保指定的資源對象在任何時候都不會超量占用系統物理資源

Namespace Controller ( 命名空間控制器) :管理namespace的生命周期

Service Controller (服務控制器) :屬於K8S集群與外部的雲平台之間的一個接口控制器

 

●Kube-scheduler

是負責資源調度的進程,根據調度算法為新創建的Pod選擇-一個合適的Node節點

可以理解成K8S所有Node節點的調度器。當用戶要部署服務時,Scheduler 會根據調度算法選擇最合適的Node 節點來部署Pod

●預算策略(predicate)

●優選策略( priorities)

2、配置存儲中心——etcd

K8S的存儲服務

etcd 是分布式鍵值存儲系統,存儲了K8S 的關鍵配置和用戶配置,K8S中僅API Server 才具備讀寫權限,其他組件必須通過 API Server的接口才能讀寫數據

 

 

3、Worker Node 組件

3.1  Node節點的工作流程:

Node節點可動態增加到kubernetes集群中,前提是這個節點已經正確安裝、配置和啟動了上述的關鍵進程,默認情況下,kubelet會向Master注冊自己,這也kubernetes推薦的Node管理方式。

一旦Node被納入集群管理范圍,kubelet會定時向Master匯報自身的情況,以及之前有哪些Pod在運行等,這樣Master可以獲知每個Node的資源使用情況,並實現高效均衡的資源調度策略。

如果Node沒有按時上報信息,則會被Master判斷為失聯,Node狀態會被標記為Not Ready,隨后Master會觸發工作負載轉移流程。

 

●Kubelet

Node節點的監視器,以及與Master節點的通訊器。Kubelet 是Master節點安插在Node節點上的“眼線”,它會定時向API Server匯報自己

Node節點上運行的服務的狀態,並接受來自Master節點的指示采取調整措施

從Master節點獲取自己節點上Pod的期望狀態(比如運行什么容器、運行的副本數量、網絡或者存儲如何配置等),

直接跟容器引擎交互實現容器的生命周期管理,如果自己節點上Pod的狀態與期望狀態不一致,則調用對應的容器平台接口(即docker的接口)達到這個狀態

管理鏡像和容器的清理工作,保證節點上鏡像不會占滿磁盤空間,退出的容器不會占用太多資源

●Kube-Proxy

在每個Node節點上實現pod網絡代理,是Kubernetes Service 資源的載體,負責維護網絡規則和四層負載均衡工作。負責寫入規則至iptables、ipvs實現服務映射訪問的

Kube-Proxy本身不是直接給Pod 提供網絡,Pod的網絡是由Kubelet 提供的,Kube-Proxy 實際上維護的是虛擬的Pod集群網絡

Kube-apiserver通過監控Kube-Proxy 進行對Kubernetes Service 的更新和端點的維護

在K8S集群中微服務的負載均衡是由Kube-proxy實現的。Kube-proxy是K8S集群內部的負載均衡器。它是一個分布式代理服務器,在K8S的每個節點上都會運行一個Kube-proxy 組件

●docker engine(docker或rocket

容器引擎,運行容器,負責本機的容器創建和管理工作

 

三、k8s核心概念

Kubernetes包含多種類型的資源對象: Pod、 Label、 Service、 Replication Controller

所有的資源對象都可以通過Kubernetes 提供的 kubectl工具進行增、刪、改、查等操作,並將其保存在etcd中持久化存儲

Kubernets其實是一個高度自動化的資源控制系統,通過跟蹤對比etcd存儲里保存的資源期望狀態與當前環境中的實際資源狀態的差異,來實現自動控制和自動糾錯等高級功能

==●Pod==

Pod是Kubernetes 創建或部署的最小/最簡單的基本單位,一個Pod 代表集群上正在運行的一個進程

可以把Pod理解成豌豆莢,而同一Pod內的每個容器是一顆顆豌豆

一個Pod由一個或多個容器組成,Pod中容器共享網絡、存儲和計算資源,在同一台Docker主機上運行

一個Pod里可以運行多個容器,又叫邊車模式(sideCara) 模式。而在生產環境中一般都是單個容器或者具有強關聯互補的多個容器組成一個Pod

同一個Pod之間的容器可以通過localhost 互相訪問,並且可以掛載Pod內所有的數據卷;但是不同的Pod之間的容器不能用localhost訪問,也不能掛載其他Pod的數據卷

==●Pod 控制器(五大控制器)==

Pod控制器是Pod啟動的一種模版,用來保證在K8S里啟動的Pod 應始終按照用戶的預期運行(副本數、生命周期、健康狀態檢查等)

K8S內提供了眾多的Pod 控制器,常用的有以下幾種:

Deployment:無狀態應用部署。Deployment 的作用是管理和控制Pod和Replicaset, 管控它們運行在用戶期望的狀態中

Replicaset: 確保預期的Pod副本數量。Replicaset 的作用就是管理和控制Pod,管控他們好好干活。 但是,Replicaset 受控於Deployment

可以理解成Deployment 就是總包工頭,主要負責監督底下的工人Pod干活,確保每時每刻有用戶要求數量的Pod在工作。

如果一旦發現某個工人Pod不行了,就趕緊新拉一個Pod過來替換它。而ReplicaSet 就是總包工頭手下的小包工頭

從K8S使用者角度來看,用戶會直接操作Deployment 部署服務,而當Deployment 被部署的時候,K8S 會自動生成要求的ReplicaSet 和Pod。

用戶只需要關心Deployment 而不操心ReplicaSet

資源對象Replication Controller是ReplicaSet 的前身,官方推薦用Deployment 取代Replication Controller來部署服務

●Daemonset: 確保所有節點運行同一類Pod,保證每個節點上都有一個此類Pod運行,通常用於實現系統級后台任務

●Statefulset:有狀態應用部署

●Job: 一次性任務。根據用戶的設置,Job管理的Pod把任務成功完成就自動退出了

●Cronjob: 周期性計划性任務

==●Label==

標簽,是K8S特色的管理方式,便於分類管理資源對象

Label可以附加到各種資源對象上,例如Node、Pod、Service、 RC等,用於關聯對象、查詢和篩選。

一個Label是一個key-value 的鍵值對,其中key 與value 由用戶自己指定

一個資源對象可以定義任意數量的Label,同一個Label也可以被添加到任意數量的資源對象中,也可以在對象創建后動態添加或者刪除

可以通過給指定的資源對象捆綁一個或多個不同的Label,來實現多維度的資源分組管理功能

與Label 類似的,還有Annotation (注釋)

區別在於有效的標簽值必須為63個字符或更少,並且必須為空或以字母數字字符([a-z0-9A-Z]) 開頭和結尾,中間可以包含橫杠(-)、下划線(_)、點(.)和字母或數字。注釋值則沒有字符長度限制

==●Label選擇器(Label selector )==

給某個資源對象定義一個Label, 就相當於給它打了一個標簽;隨后可以通過標簽選擇器(Label selector) 查詢和篩選擁有某些Label的資源對象

標簽選擇器目前有兩種:基於等值關系(等於、不等於)和基於集合關系(屬於、不屬於、存在)

==●Service==

在K8S的集群里,雖然每個Pod會被分配一個單獨的IP地址,但由於Pod是有生命周期的(它們可以被創建,而且銷毀之后不會再啟動),隨時可能會因為業務的變更,導致這個IP地址也會隨着Pod 的銷毀而消失,Service就是用來解決這個問題的核心概念。

K8S中的Service 並不是我們常說的“服務”的含義,而更像是網關層,可以看作一組提供相同服務的Pod的對外訪問接口、流量均衡器,Service作用於哪些Pod 是通過標簽選擇器來定義的。

在K8S集群中,Service 可以看作一組提供相同服務的Pod 的對外訪問接口。客戶端需要訪問的服務就是Service 對象。

每個Service都有一個固定的虛擬ip (這個ip也被稱為Cluster IP) ,自動並且動態地綁定后端的Pod, 所有的網絡請求直接訪問Service 的虛擬ip,Service會自動向后端做轉發

Service除了提供穩定的對外訪問方式之外,還能起到負載均衡(Load Balance) 的功能,自動把請求流量分布到后端所有的服務上,service可以做到對客戶透明地進行水平擴展(scale)

而實現service 這一功能的關鍵, 就是kube-proxy。 kube -proxy運行在每個節點上,監聽API Server中服務對象的變化,

可通過以下三種流量調度模式: userspace (廢棄)、iptables (瀕臨廢棄)、ipvs (推薦,性能最好)來實現網絡的轉發。

Service是K8S服務的核心,屏蔽了服務細節,統一對外暴露服務接口, 真正做到了“微服務”。比如我們的一個服務A,部署了3

個副本,也就是3個Pod;對於用戶來說,只需要關注一個Service 的入口就可以,而不需要操心究競應該請求哪一個Pod。

優勢非常明顯:一方面外部用戶不需要感知因為Pod. 上服務的意外崩潰、 K8S 重新拉起Pod 而造成的IP變更,外部用戶也不需要感知因升級、變更服務帶來的Pod替換而造成的IP變化。

==●Ingress==

Service主要負責K8S 集群內部的網絡拓撲,那么集群外部怎么訪問集群內部呢?這個時候就需要Ingress了。

Ingress是整個K8S集群的接入層,負責集群內外通訊

Ingress是K8S 集群里工作在OSI網絡參考模型下,第7層的應用,對外暴露的接口,典型的訪問方式是http/https

Service只能進行第四層的流量調度,表現形式是ip+port。Ingress則可以調度不同業務域、不同URL訪問路徑的業務流量。

比如:客戶端請求http://www.ly.com:port ---> Ingress ---> Service ---> Pod

==●Name==

由於K8S內部,使用“資源”來定義每一種邏輯概念(功能),所以每種“資源”,都應該有自己的“名稱”

“資源”有api版本(apiversion) 、類別(kind)、元數據(metadata) 、定義清單(spec)、狀態(status) 等配置信息

“名稱”通常定義在“資源”的“元數據”信息里。在同一個namespace 空間中必須是唯一的

==●Namespace==

隨着項目增多、人員增加、集群規模的擴大,需要一種能夠邏輯上隔離K8S 內各種“資源"的方法,這就是Namespace

Namespace是為了把一個K8S集群划分為若千個資源不可共享的虛擬集群組而誕生的

不同Namespace 內的“資源”名稱可以相同,相同Namespace 內的同種“資源”, “名稱”不能相同

合理的使用K8S的Namespace,可以使得集群管理員能夠更好的對交付到K8S里的服務進行分類管理和瀏覽

K8S里默認存在的Namespace 有: default、 kube-system、 kube-public 等

查詢K8S 里特定“資源”要帶上相應的Namespace

 k8s的架構以及工作流程

master節點:API server  shceduler controller-manager

worker node 節點:kubelet kube-proxy docker engine

工作流程或者各個組件的功能:  

1、用戶通過客戶端發送請求給API server,API Server 接收請求創建一批Pod,會存儲pod數據到etcd

2、Controller-manager 通過API Server 到etcd中讀取按照預設的模板去創建Pod,Controller-manager 又會通過API Server讓Scheduler為新創建的Pod 根據預算策略以及優選策略,選擇最適合的Node 節點把pod調度過來

比如運行這個Pod需要2C 4G 的資源,Scheduler 會通過預算策略在所有Node’節點中挑選最優的。Node 節點中還剩多少資源是通過匯報給API Server 存儲在etcd 里,API Server 會調用一個方法找到etcd里所有node節點的剩余資源,再對比pod所需要的資源,在所有node節點中查找哪些node節點符合要求
如果都符合,預算策略就交給優選策略處理,優選策略再通過CPU 的負載、內存的剩余量等因素選擇最合適的Node節點,並把Pod調度到這個Node’節點上運行

3、scheduler通過Api server來讓Kubelet根據調度結果執行Pod創建操作,並且對node節點進行監視,會定時向api server匯報自己node節點運行的服務狀態,並且存儲到etcd中

在這期間,Controller Manager同時會根據K8S的mainfiles文件執行RC Pod的數量來保證指定的Pod副本數

4、在每個node上都會有一個kube-proxy,來實現pod的網絡代理,它是Kubernetes Service 資源的載體。在任何一個節點上訪問一個service的虛擬ip,都可以訪問到pod,提供cluster ip的訪問入口
所有Node上運行的Proxy進程通過APIServer查詢並監聽service對象與其對應的Endponts信息,建立一個軟件方式的負載均衡器來實現Service訪問到后端Pod的流量轉發功能



免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM