前言:
之前在山西的項目上使用的是lvs下的NAT模式,但另外兩個模式並沒有涉及,今天系統的整理下關於負載均衡的相關理論與lvs各模式的相關優點與不足,知其然與所以然,而后能針對性的應用:
基本介紹
1.1 負載均衡的由來
在業務初期,我們一般會先使用單台服務器對外提供服務。隨着業務流量越來越大,單台服務器無論如何優化,無論采用多好的硬件,總會有性能天花板,當單服務器的性能無法滿足業務需求時,就需要把多台服務器組成集群系統提高整體的處理性能。不過我們要使用統一的入口方式對外提供服務,所以需要一個流量調度器通過均衡的算法,將用戶大量的請求均衡地分發到后端集群不同的服務器上。這就是我們后邊要說的 負載均衡。
1.2 負載均衡的優點
提高了服務的整體性能
提高了服務的擴展性
提高了服務的高可用性
1.3 負載均衡的類型
廣義上的負載均衡器大概可以分為 3 類,包括:DNS 方式實現負載均衡、硬件負載均衡、軟件負載均衡。
1.3.1 DNS負載均衡
DNS 實現負載均衡是最基礎簡單的方式。一個域名通過 DNS 解析到多個 IP,每個 IP 對應不同的服務器實例,這樣就完成了流量的調度,雖然沒有使用常規的負載均衡器,但也的確完成了簡單負載均衡的功能。
通過 DNS 實現負載均衡的方式的優點:
實現簡單,成本低,無需自己開發或維護負載均衡設備,
通過 DNS 實現負載均衡的方式的缺點:
服務器故障切換延遲大
服務器升級不方便。我們知道 DNS 與用戶之間是層層的緩存,即便是在故障發生時及時通過 DNS 修改或摘除故障服務器,但中間由於經過運營商的 DNS 緩存,且緩存很有可能不遵循 TTL 規則,導致 DNS 生效時間變得非常緩慢,有時候一天后還會有些許的請求流量。
流量調度不均衡,粒度太粗
DNS 調度的均衡性,受地區運營商 LocalDNS 返回 IP 列表的策略有關系,有的運營商並不會輪詢返回多個不同的 IP 地址。另外,某個運營商 LocalDNS 背后服務了多少用戶,這也會構成流量調度不均的重要因素。
流量分配策略比較簡單,支持的算法較少。DNS 一般只支持 RR 的輪詢方式,流量分配策略比較簡單,不支持權重、Hash 等調度算法。
DNS 支持的 IP 列表有限制
我們知道 DNS 使用 UDP 報文進行信息傳遞,每個 UDP 報文大小受鏈路的 MTU 限制,所以報文中存儲的 IP 地址數量也是非常有限的,阿里 DNS 系統針對同一個域名支持配置 10 個不同的 IP 地址。
注:實際上生產環境中很少使用這種方式來實現負載均衡,畢竟缺點很明顯。文中之所以描述 DNS 負載均衡方式,是為了能夠更清楚地解釋負載均衡的概念。一些大公司一般也會利用 DNS 來實現地理級別的負載均衡,實現就近訪問,提高訪問速度,這種方式一般是入口流量的基礎負載均衡,下層會有更專業的負載均衡設備實現的負載架構。
1.3.2 硬件負載均衡
硬件負載均衡是通過專門的硬件設備來實現負載均衡功能,類似於交換機、路由器,是一個負載均衡專用的網絡設備。目前業界典型的硬件負載均衡設備有兩款:F5 和 A10。這類設備性能強勁、功能強大,但價格非常昂貴,一般只有 “土豪” 公司才會使用此類設備,普通業務量級的公司一般負擔不起,二是業務量沒那么大,用這些設備也是浪費。
硬件負載均衡的優點:
功能強大:全面支持各層級的負載均衡,支持全面的負載均衡算法。
性能強大:性能遠超常見的軟件負載均衡器。
穩定性高:商用硬件負載均衡,經過了良好的嚴格測試,經過大規模使用,穩定性高。
安全防護:除了具備負載均衡外,還具備防火牆、防 DDoS 攻擊等安全功能,貌似還支持 SNAT 功能。
硬件負載均衡的缺點:
價格昂貴,就是貴。
擴展性差,無法進行擴展和定制。
調試和維護比較麻煩,需要專業人員。
1.3.3 軟件負載均衡
軟件負載均衡,可以在普通的服務器上運行負載均衡軟件,實現負載均衡功能。目前常見的有 Nginx、HAproxy、LVS,了解到很多大公司使用的 LVS 都是定制版的,做過很多性能方面的優化,比開源版本性能會高出很多,
目前較為熟悉的負載均衡軟件是 LVS,且大部分中小型公司使用開源的 LVS 足夠滿足業務需求;
軟件負載均衡的優點:
簡單:無論是部署還是維護都比較簡單。
便宜:買個 Linux 服務器,裝上軟件即可。
靈活:4 層和 7 層負載均衡可以根據業務進行選擇;也可以根據業務特點,比較方便進行擴展和定制功能。
第2章 基礎原理
2.1 Netfilter基本原理
LVS 是基於 Linux 內核中 netfilter 框架實現的負載均衡系統,所以要學習 LVS 之前必須要先簡單了解 netfilter 基本工作原理。netfilter 其實很復雜也很重要,平時我們說的 Linux 防火牆就是 netfilter,不過我們平時操作的都是 iptables,iptables 只是用戶空間編寫和傳遞規則的工具而已,真正工作的是 netfilter。通過下圖可以簡單了解下 netfilter 的工作機制:
netfilter 是內核態的 Linux 防火牆機制,作為一個通用、抽象的框架,提供了一整套的 hook 函數管理機制,提供諸如數據包過濾、網絡地址轉換、基於協議類型的連接跟蹤的功能。
通俗點講,就是 netfilter 提供一種機制,可以在數據包流經過程中,根據規則設置若干個關卡(hook 函數)來執行相關的操作。netfilter 總共設置了 5 個點,包括:PREROUTING、INPUT、FORWARD、OUTPUT、POSTROUTING
PREROUTING :剛剛進入網絡層,還未進行路由查找的包,通過此處
INPUT :通過路由查找,確定發往本機的包,通過此處
FORWARD :經路由查找后,要轉發的包,在POST_ROUTING之前
OUTPUT :從本機進程剛發出的包,通過此處
POSTROUTING :進入網絡層已經經過路由查找,確定轉發,將要離開本設備的包,通過此處
數據包大致流經路徑:
當一個數據包進入網卡,經過鏈路層之后進入網絡層就會到達 PREROUTING,接着根據目標 IP 地址進行路由查找,如果目標 IP 是本機,數據包繼續傳遞到 INPUT 上,經過協議棧后根據端口將數據送到相應的應用程序;應用程序處理請求后將響應數據包發送到 OUTPUT 上,最終通過 POSTROUTING 后發送出網卡。如果目標 IP 不是本機,而且服務器開啟了 forward 參數,就會將數據包遞送給 FORWARD 上,最后通過 POSTROUTING 后發送出網卡。
第3章 Lvs負載均衡
Lvs是軟件負載均衡,LVS 是基於 netfilter 框架,主要工作於 INPUT 鏈上,在 INPUT 上注冊 ip_vs_in HOOK 函數,進行 IPVS 主流程,大概原理如圖所示:
當用戶訪問網站時,用戶數據通過層層網絡,最后通過交換機進入 LVS 服務器網卡,並進入內核網絡層。進入 PREROUTING 后經過路由查找,確定訪問的目的 VIP 是本機 IP 地址,所以數據包進入到 INPUT 鏈上,IPVS 是工作在 INPUT 鏈上,會根據訪問的 vip+port 判斷請求是否 IPVS 服務,如果是則調用注冊的 IPVS HOOK 函數,進行 IPVS 相關主流程,強行修改數據包的相關數據,並將數據包發往 POSTROUTING 鏈上。POSTROUTING 上收到數據包后,根據目標 IP 地址(后端服務器),通過路由選路,將數據包最終發往后端的服務器上。
3.1 基本簡介
LVS(Linux Virtual Server)即Linux虛擬服務器,是由章文嵩博士主導的開源負載均衡項目,目前LVS已經被集成到Linux內核模塊中。該項目在Linux內核中實現了基於IP的數據請求負載均衡調度方案;
3.2 工作模式
開源 LVS 版本有 3 種工作模式,每種模式工作原理截然不同,說各種模式都有自己的優缺點,分別適合不同的應用場景,不過最終本質的功能都是能實現均衡的流量調度和良好的擴展性。主要包括以下三種模式
DR 模式
NAT 模式
Tunnel 模式
相關術語介紹
CIP:Client IP,表示的是客戶端 IP 地址。
VIP:Virtual IP,表示負載均衡對外提供訪問的 IP 地址,一般負載均衡 IP 都會通過 Virtual IP 實現高可用。
RIP:RealServer IP,表示負載均衡后端的真實服務器 IP 地址。
DIP:Director IP,表示負載均衡與后端服務器通信的 IP 地址。
CMAC:客戶端的 MAC 地址,准確的應該是 LVS 連接的路由器的 MAC 地址。
VMAC:負載均衡 LVS 的 VIP 對應的 MAC 地址。
DMAC:負載均衡 LVS 的 DIP 對應的 MAC 地址。
RMAC:后端真實服務器的 RIP 地址對應的 MAC 地址。
3.2.1 DR模式
其實 DR 是最常用的工作模式,因為它的強大的性能。下邊以一次請求和響應數據流的過程來描述 DR 模式的具體原理:
第一步:
當客戶端請求網站主頁,經過 DNS 解析到 IP 后,向網站服務器發送請求數據,數據包經過層層網絡到達網站負載均衡 LVS 服務器,到達 LVS 網卡時的數據包:源 IP 是客戶端 IP 地址 CIP,目的 IP 是新浪對外的服務器 IP 地址,也就是 VIP;此時源 MAC 地址是 CMAC,其實是 LVS 連接的路由器的 MAC 地址(為了容易理解記為 CMAC),目標 MAC 地址是 VIP 對應的 MAC,記為 VMAC。
第二步:
數據包到達網卡后,經過鏈路層到達 PREROUTING 位置(剛進入網絡層),查找路由發現目的 IP 是 LVS 的 VIP,就會遞送到 INPUT 鏈上,此時數據包 MAC、IP、Port 都沒有修改。
第三步:
數據包到達 INPUT 鏈,INPUT 是 LVS 主要工作的位置。此時 LVS 會根據目的 IP 和 Port 來確認是否是 LVS 定義的服務,如果是定義過的 VIP 服務,就會根據配置的 Service 信息,從 RealServer 中選擇一個作為后端服務器 RS1,然后以 RS1 作為目標查找 Out 方向的路由,確定下一跳信息以及數據包要通過哪個網卡發出。最后將數據包通過 INET_HOOK 到 OUTPUT 鏈上(Out 方向剛進入網絡層)。
第四步:
數據包通過 POSTROUTING 鏈后,從網絡層轉到鏈路層,將目的 MAC 地址修改為 RealServer 服務器 MAC 地址,記為 RMAC;而源 MAC 地址修改為 LVS 與 RS 同網段的 selfIP 對應的 MAC 地址,記為 DMAC。此時,數據包通過交換機轉發給了 RealServer 服務器
第五步:
請求數據包到達 RealServer 服務器后,鏈路層檢查目的 MAC 是自己網卡地址。到了網絡層,查找路由,目的 IP 是 VIP(lo 上配置了 VIP),判定是本地主機的數據包,經過協議棧后拷貝至應用程序(比如這里是 nginx 服務器),nginx 響應請求后,產生響應數據包。以目的 VIP 為 dst 查找 Out 路由,確定下一跳信息和發送網卡設備信息,發送數據包。此時數據包源、目的 IP 分別是 VIP、CIP,而源 MAC 地址是 RS1 的 RMAC,目的 MAC 是下一跳(路由器)的 MAC 地址,記為 CMAC(為了容易理解,記為 CMAC)。然后數據包通過 RS 相連的路由器轉發給真正客戶端。
DR模式的優缺點:
DR 模式的優點
a. 響應數據不經過 lvs,性能高
b. 對數據包修改小,信息保存完整(攜帶客戶端源 IP)
DR 模式的缺點
a. lvs 與 rs 必須在同一個物理網絡(不支持跨機房)
b. rs 上必須配置 lo 和其它內核參數
c. 不支持端口映射
DR 模式的使用場景
如果對性能要求非常高,可以首選 DR 模式,而且可以透傳客戶端源 IP 地址
3.2.2 NAT模式
第一步:
用戶請求數據包經過層層網絡,到達 lvs 網卡,此時數據包源 IP 是 CIP,目的 IP 是 VIP。
經過網卡進入網絡層 prerouting 位置,根據目的 IP 查找路由,確認是本機 IP,將數據包轉發到 INPUT 上,此時源、目的 IP 都未發生變化。
第二步:
到達 lvs 后,通過目的 IP 和目的 port 查找是否為 IPVS 服務。若是 IPVS 服務,則會選擇一個 RS 作為后端服務器,將數據包目的 IP 修改為 RIP,並以 RIP 為目的 IP 查找路由信息,確定下一跳和出口信息,將數據包轉發至 output 上。
第三步:
修改后的數據包經過 postrouting 和鏈路層處理后,到達 RS 服務器,此時的數據包源 IP 是 CIP,目的 IP 是 RIP。
第四步:
到達 RS 服務器的數據包經過鏈路層和網絡層檢查后,被送往用戶空間 nginx 程序。nginx 程序處理完畢,發送響應數據包,由於 RS 上默認網關配置為 lvs 設備 IP,所以 nginx 服務器會將數據包轉發至下一跳,也就是 lvs 服務器。此時數據包源 IP 是 RIP,目的 IP 是 CIP。
第五步:
lvs 服務器收到 RS 響應數據包后,根據路由查找,發現目的 IP 不是本機 IP,且 lvs 服務器開啟了轉發模式,所以將數據包轉發給 forward 鏈,此時數據包未作修改。
第六步:
lvs 收到響應數據包后,根據目的 IP 和目的 port 查找服務和連接表,將源 IP 改為 VIP,通過路由查找,確定下一跳和出口信息,將數據包發送至網關,經過復雜的網絡到達用戶客戶端,最終完成了一次請求和響應的交互。
NAT模式的優缺點:
NAT 模式優點
a. 能夠支持 windows 操作系統
b. 支持端口映射。如果 rs 端口與 vport 不一致,lvs 除了修改目的 IP,也會修改 dport 以支持端口映射。
NAT 模式缺點
a. 后端 RS 需要配置網關
b. 雙向流量對 lvs 負載壓力比較大
NAT 模式的使用場景
如果你是 windows 系統,使用 lvs 的話,則必須選擇 NAT 模式了。
3.2.3 Tunnel模式
第一步:
用戶請求數據包經過多層網絡,到達 lvs 網卡,此時數據包源 IP 是 cip,目的 ip 是 vip。
第二步:
經過網卡進入網絡層 prerouting 位置,根據目的 ip 查找路由,確認是本機 ip,將數據包轉發到 input 鏈上,到達 lvs,此時源、目的 ip 都未發生變化。
第三步:
到達 lvs 后,通過目的 ip 和目的 port 查找是否為 IPVS 服務。若是 IPVS 服務,則會選擇一個 rs 作為后端服務器,以 rip 為目的 ip 查找路由信息,確定下一跳、dev 等信息,然后 IP 頭部前邊額外增加了一個 IP 頭(以 dip 為源,rip 為目的 ip),將數據包轉發至 output 上。
第四步:
數據包根據路由信息經最終經過 lvs 網卡,發送至路由器網關,通過網絡到達后端服務器。
第五步:
后端服務器收到數據包后,ipip 模塊將 Tunnel 頭部卸載,正常看到的源 ip 是 cip,目的 ip 是 vip,由於在 tunl0 上配置 vip,路由查找后判定為本機 ip,送往應用程序。應用程序 nginx 正常響應數據后以 vip 為源 ip,cip 為目的 ip 數據包發送出網卡,最終到達客戶端。
Tunnel 模式的優點
a. 單臂模式,對 lvs 負載壓力小
b. 對數據包修改較小,信息保存完整
c. 可跨機房(不過在國內實現有難度)
Tunnel 模式的缺點
a. 需要在后端服務器安裝配置 ipip 模塊
b. 需要在后端服務器 tunl0 配置 vip
c. 隧道頭部的加入可能導致分片,影響服務器性能
d. 隧道頭部 IP 地址固定,后端服務器網卡 hash 可能不均
e. 不支持端口映射
Tunnel 模式的使用場景
理論上,如果對轉發性能要求較高,且有跨機房需求,Tunnel 可能是較好的選擇。
3.3 調度算法
3.3.1 輪詢調度
輪詢調度(Round Robin 簡稱'RR')算法就是按依次循環的方式將請求調度到不同的服務器上,該算法最大的特點就是實現簡單。輪詢算法假設所有的服務器處理請求的能力都一樣的,調度器會將所有的請求平均分配給每個真實服務器。
3.3.2 加權輪詢調度
加權輪詢(Weight Round Robin 簡稱'WRR')算法主要是對輪詢算法的一種優化與補充,LVS會考慮每台服務器的性能,並給每台服務器添加一個權值,如果服務器A的權值為1,服務器B的權值為2,則調度器調度到服務器B的請求會是服務器A的兩倍。權值越高的服務器,處理的請求越多。
3.3.3 最小連接調度
最小連接調度(Least Connections 簡稱'LC')算法是把新的連接請求分配到當前連接數最小的服務器。最小連接調度是一種動態的調度算法,它通過服務器當前活躍的連接數來估計服務器的情況。調度器需要記錄各個服務器已建立連接的數目,當一個請求被調度到某台服務器,其連接數加1;當連接中斷或者超時,其連接數減1。
(集群系統的真實服務器具有相近的系統性能,采用最小連接調度算法可以比較好地均衡負載。)
3.3.4 加權最小連接調度
加權最少連接(Weight Least Connections 簡稱'WLC')算法是最小連接調度的超集,各個服務器相應的權值表示其處理性能。服務器的缺省權值為1,系統管理員可以動態地設置服務器的權值。加權最小連接調度在調度新連接時盡可能使服務器的已建立連接數和其權值成比例。調度器可以自動問詢真實服務器的負載情況,並動態地調整其權值。
3.3.5 基於局部的最少連接
基於局部的最少連接調度(Locality-Based Least Connections 簡稱'LBLC')算法是針對請求報文的目標IP地址的負載均衡調度,目前主要用於Cache集群系統,因為在Cache集群客戶請求報文的目標IP地址是變化的。這里假設任何后端服務器都可以處理任一請求,算法的設計目標是在服務器的負載基本平衡情況下,將相同目標IP地址的請求調度到同一台服務器,來提高各台服務器的訪問局部性和Cache命中率,從而提升整個集群系統的處理能力。LBLC調度算法先根據請求的目標IP地址找出該目標IP地址最近使用的服務器,若該服務器是可用的且沒有超載,將請求發送到該服務器;若服務器不存在,或者該服務器超載且有服務器處於一半的工作負載,則使用'最少連接'的原則選出一個可用的服務器,將請求發送到服務器。
3.3.6 帶復制的基於局部性的最少連接
帶復制的基於局部性的最少連接(Locality-Based Least Connections with Replication 簡稱'LBLCR')算法也是針對目標IP地址的負載均衡,目前主要用於Cache集群系統,它與LBLC算法不同之處是它要維護從一個目標IP地址到一組服務器的映射,而LBLC算法維護從一個目標IP地址到一台服務器的映射。按'最小連接'原則從該服務器組中選出一一台服務器,若服務器沒有超載,將請求發送到該服務器;若服務器超載,則按'最小連接'原則從整個集群中選出一台服務器,將該服務器加入到這個服務器組中,將請求發送到該服務器。同時,當該服務器組有一段時間沒有被修改,將最忙的服務器從服務器組中刪除,以降低復制的程度。
3.3.7 目標地址散列調度
目標地址散列調度(Destination Hashing 簡稱'DH')算法先根據請求的目標IP地址,作為散列鍵(Hash Key)從靜態分配的散列表找出對應的服務器,若該服務器是可用的且並未超載,將請求發送到該服務器,否則返回空。
3.3.8 源地址散列調度U
源地址散列調度(Source Hashing 簡稱'SH')算法先根據請求的源IP地址,作為散列鍵(Hash Key)從靜態分配的散列表找出對應的服務器,若該服務器是可用的且並未超載,將請求發送到該服務器,否則返回空。它采用的散列函數與目標地址散列調度算法的相同,它的算法流程與目標地址散列調度算法的基本相似。
3.3.9 最短的期望的延遲
最短的期望的延遲調度(Shortest Expected Delay 簡稱'SED')算法基於WLC算法。舉個例子吧,ABC三台服務器的權重分別為1、2、3 。那么如果使用WLC算法的話一個新請求進入時它可能會分給ABC中的任意一個。使用SED算法后會進行一個運算
A:(1+1)/1=2 B:(1+2)/2=3/2 C:(1+3)/3=4/3 就把請求交給得出運算結果最小的服務器。
3.3.10 最少隊列調度
最少隊列調度(Never Queue 簡稱'NQ')算法,無需隊列。如果有realserver的連接數等於0就直接分配過去,不需要在進行SED運算。