高可用的K8S集群部署方案


涉及到的內容

  1. LVS
  2. HAProxy
  3. Harbor
  4. etcd
  5. Kubernetes (Master Worker)

整體拓補圖


以上是最小生產可用的整體拓補圖(相關節點根據需要進行增加,但不能減少)

按功能組划分

  1. SLB
    • LVS
    • HAProxy
  2. etcd
  3. K8S Node (Master / Worker)

SLB

LVS 、HAProxy 被規划為基礎層,主要提供了一個高可用的7層負載均衡器。
由LVS keepalived 提供一個高可用的VIP(虛擬IP)。
這個VIP DR模式轉發到后端的HAProxy服務器。
HAProxy反代了K8S Master服務器,提供了K8S Master API的高可用和負載均衡能力。

可以使用Nginx代替HAProxy嗎?

是可以的,這邊使用HAproxy是因為k8s文檔中出現了HAproxy,且后續可能會有4層反代的要求,從而使用了HAProxy。

可以直接從LVS轉發到Master嗎?

理論上可行,我沒有試驗。
如果不缺兩台機器推薦還是架設一層具有7層代理能力的服務。
k8s apiserver、harbor、etcd都是以HTTP的方式提供的api,如果有7層代理能力的服務后續會更容易維護和擴展。

推薦配置

用途 數量 CPU 內存
Keepalive 2 4 4GB
HAProxy 2 4 4GB

etcd

etcd是一個采用了raft算法的分布式鍵值存儲系統。
這不是k8s專屬的是一個獨立的分布式系統,具體的介紹大家可以參考官網,這邊不多做介紹。
我們采用了 static pod的方式部署了etcd集群。

失敗容忍度

最小可用節點數:(n/2)+1,下面是一個參考表格,其中加粗的是推薦的節點數量:

總數 最少存活 失敗容忍
1 1 0
2 2 0
3 2 1
4 3 1
5 3 2
6 4 2
7 4 3
8 5 3
9 5 4

推薦配置

括號內是官方推薦的配置

用途 數量 CPU 內存
etcd 3 4 (8~16) 8GB (16GB~64GB)

官網:
https://etcd.io/
官方硬件建議:
https://etcd.io/docs/v3.3.12/op-guide/hardware/
Static Pod部署文檔:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/setup-ha-etcd-with-kubeadm/

Kubernetes集群

kubernetes集群主要有兩種類型的節點:Master和Worker。
Master則是集群領導。
Worker是工作者節點。
可以看出這邊主要的工作在Master節點,Worker節點根據具體需求隨意增減就好了。
Master節點的高可用拓補官方給出了兩種方案。

  1. Stacked etcd topology(堆疊etcd)
  2. External etcd topology(外部etcd)

可以看出最主要的區別在於etcd的部署方式。
第一種方案是所有k8s Master節點都運行一個etcd在本機組成一個etcd集群。
第二種方案則是使用外部的etcd集群(額外搭建etcd集群)。
我們采用的是第二種,外部etcd,拓補圖如下:

如果采用堆疊的etcd拓補圖則是:

這邊大家可以根據具體的情況選擇,推薦使用第二種,外部的etcd。

參考來源:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/ha-topology/

Master節點的組件

  1. apiserver
  2. controller-manager
  3. scheduler

一個master節點主要含有上面3個組件 ( 像cloud-controller-manager這邊就不多做說明了,正常不會用到 )
apiserver: 一個api服務器,所有外部與k8s集群的交互都需要經過它。(可水平擴展)
controller-manager: 執行控制器邏輯(循環通過apiserver監控集群狀態做出相應的處理)(一個master集群中只會有一個節點處於激活狀態)
scheduler: 將pod調度到具體的節點上(一個master集群中只會有一個節點處於激活狀態)

可以看到除了apiserver外都只允許一個 實例處於激活狀態(類HBase)運行於其它節點上的實例屬於待命狀態,只有當激活狀態的實例不可用時才會嘗試將自己設為激活狀態。
這邊牽扯到了領導選舉(zookeeper、consul等分布式集群系統也是需要領導選舉)

Master高可用需要幾個節點?失敗容忍度是多少?

k8s依賴etcd所以不存在數據一致性的問題(把數據一致性壓到了etcd上),所以k8s master不需要采取投票的機制來進行選舉,而只需節點健康就可以成為leader。
所以這邊master並不要求奇數,偶數也是可以的。
那么master高可用至少需要2個節點,失敗容忍度是(n/0)+1,也就是只要有一個是健康的k8s master集群就屬於可用狀態。(這邊需要注意的是master依賴etcd,如果etcd不可用那么master也將不可用

Master組件說明:
https://kubernetes.io/docs/concepts/overview/components/
部署文檔:
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/high-availability/

硬件配置

用途 數量 CPU 內存
Master 3 4 8GB

高可用驗證

至此生產可用的k8s集群已“搭建完成”。為什么打引號?因為還沒有進行測試和驗證,下面給出我列出的驗證清單

還有涉及的BGP相關的驗證不在此次文章內容中,后續會為大家說明。

寫在最后

還有一點需要注意的是物理機的可用性,如果這些虛擬機全部在一台物理機上那么還是存在“單點問題”。這邊建議至少3台物理機以上

為什么需要3台物理機以上?
主要是考慮到了etcd的問題,如果只有兩台物理機部署了5個etcd節點,那么部署了3個etcd的那台物理機故障了,則不滿足etcd失敗容忍度而導致etcd集群宕機,從而導致k8s集群宕機。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM