負載均衡的幾種常用方案
總結下負載均衡的常用方案及適用場景;
Round Robin 輪詢調度
以輪詢的方式依次請求調度不同的服務器;
實現時,一般為服務器帶上權重;這樣有兩個好處:
- 針對服務器的性能差異可分配不同的負載;
- 當需要將某個結點剔除時,只需要將其權重設置為0即可;
優點:實現簡單、高效;易水平擴展;
缺點:請求到目的結點的不確定,造成其無法適用於有寫的場景(緩存,數據庫寫)
應用場景:數據庫或應用服務層中只有讀的場景;
隨機方式
請求隨機分布到各個結點;在數據足夠大的場景能達到一個均衡分布;
優點:實現簡單、易水平擴展;
缺點:同Round Robin,無法用於有寫的場景;
應用場景:數據庫負載均衡,也是只有讀的場景;
哈希方式
根據key來計算需要落在的結點上,可以保證一個同一個鍵一定落在相同的服務器上;
優點:相同key一定落在同一個結點上,這樣就可用於有寫有讀的緩存場景;
缺點:在某個結點故障后,會導致哈希鍵重新分布,造成命中率大幅度下降;
解決:一致性哈希 or 使用keepalived保證任何一個結點的高可用性,故障后會有其它結點頂上來;
應用場景:緩存,有讀有寫;
一致性哈希
在服務器一個結點出現故障時,受影響的只有這個結點上的key,最大程度的保證命中率;
如twemproxy中的ketama方案;
生產實現中還可以規划指定子key哈希,從而保證局部相似特征的鍵能分布在同一個服務器上;
優點:結點故障后命中率下降有限;
應用場景:緩存;
根據鍵的范圍來負載
根據鍵的范圍來負載,前1億個鍵都存放到第一個服務器,1~2億在第二個結點;
優點:水平擴展容易,存儲不夠用時,加服務器存放后續新增數據;
缺點:負載不均;數據庫的分布不均衡;(數據有冷熱區分,一般最近注冊的用戶更加活躍,這樣造成后續的服務器非常繁忙,而前期的結點空閑很多)
適用場景:數據庫分片負載均衡;
根據鍵對服務器結點數取模來負載;
根據鍵對服務器結點數取模來負載;比如有4台服務器,key取模為0的落在第一個結點,1落在第二個結點上。
優點:數據冷熱分布均衡,數據庫結點負載均衡分布;
缺點:水平擴展較難;
適用場景:數據庫分片負載均衡;
純動態結點負載均衡
根據CPU、IO、網絡的處理能力來決策接下來的請求如何調度;
優點:充分利用服務器的資源,保證個結點上負載處理均衡;
缺點:實現起來復雜,真實使用較少;
不用主動負載均衡;
使用消息隊列轉為異步模型,將負載均衡的問題消滅
負載均衡是一種推模型,一直向你發數據,那么,將所有的用戶請求發到消息隊列中,所有的下游結點誰空閑,誰上來取數據處理;轉為拉模型之后,消除了對下行結點負載的問題;
優點:通過消息隊列的緩沖,保護后端系統,請求劇增時不會沖垮后端服務器;
水平擴展容易,加入新結點后,直接取queue即可;
缺點:不具有實時性;
應用場景:不需要實時返回的場景;
比如,12036下訂單后,立刻返回提示信息:您的訂單進去排隊了...等處理完畢后,再異步通知;
相關開源工具
-
HAProxy:可用來做redis多個結點的負載均衡、也可做mysql等數據庫的負載、支持4層負載和7層負載;(一般配合Keepalived做高可用)
-
Twemproxy:用來做redis的結點的分片、redis的存儲受限與單個結點的內存容量,數據量大到需要分片,使用twemproxy可做到對業務層透明的分片;
twemproxy也是使用的單線程reactor模型,一個twemproxy后端接再多的redis結點,其能夠支撐的TPS不會超過單個redis結點的處理能力,使用時需要啟動多個twemproxy對外提供查詢結點; -
nginx:目前的明星開源產品,只支持7層負載,除了用於反向代理負載均衡,更出名的是作為WEB服務器;
- LVS:使用Linux內核集群實現一個高性能、高可用的負載均衡服務器,采用IP負載均衡技術和基於內容請求分發技術。未用過這個,有興趣的同學可看看這篇文章:http://www.ha97.com/5646.html;
Posted by: 大CC | 27NOV,2015
博客:blog.me115.com [訂閱]
Github:大CC