一致性哈希(hash)算法


一、算法背景

一致性哈希算法在1997年由麻省理工學院的Karger等人在解決分布式Cache中提出的,設計目標是為了解決因特網中的熱點(Hot spot)問題,初衷和CARP十分類似。一致性哈希修正了CARP使用的簡單哈希算法帶來的問題,使得DHT可以在P2P環境中真正得到應用。

 

二、應用場景

現在一致性hash算法在分布式系統中也得到了廣泛應用,分布式系統中涉及到集群部署,包括緩存Redis集群,數據庫集群,我們在使用Redis的時候,為了保證Redis的高可用,提高Redis的讀寫性能,最簡單的方式我們會做主從復制,組成Master-Master或者Master-Slave的形式,或者搭建Redis集群,進行數據的讀寫分離,類似於數據庫的主從復制和讀寫分離。如下所示:

 

同樣數據庫中也是,當單表數據大於500W的時候需要對其進行分庫分表,當數據量很大的時候(標准可能不一樣,要看Redis服務器容量)我們同樣可以對Redis進行類似的操作,就是分庫分表。

假設,我們有一個社交網站,需要使用Redis存儲圖片資源,存儲的格式為鍵值對,key值為圖片名稱,value為該圖片所在文件服務器的路徑,我們需要根據文件名查找該文件所在文件服務器上的路徑,數據量大概有2000W左右,按照我們約定的規則進行分庫,規則就是隨機分配,我們可以部署8台緩存服務器,每台服務器大概含有500W條數據,並且進行主從復制,示意圖如下

由於規則是隨機的,所有我們的一條數據都有可能存儲在任何一組Redis中,例如上圖我們用戶查找一張名稱為”a.png”的圖片,由於規則是隨機的,我們不確定具體是在哪一個Redis服務器上的,因此我們需要進行1、2、3、4,4次查詢才能夠查詢到(也就是遍歷了所有的Redis服務器),這顯然不是我們想要的結果,有了解過的小伙伴可能會想到,隨機的規則不行,可以使用類似於數據庫中的分庫分表規則:按照Hash值、取模、按照類別、按照某一個字段值等等常見的規則就可以出來了!好,按照我們的主題,我們就使用Hash的方式。

 

三、為Redis集群使用Hash

可想而知,如果我們使用Hash的方式 hash(圖片名稱) % N ,每一張圖片在進行分庫的時候都可以定位到特定的服務器,示意圖如下:

 

因為圖片的名稱是不重復的,所以,當我們對同一個圖片名稱做相同的哈希計算時,得出的結果應該是不變的,如果我們有4台服務器,使用哈希后的結果對4求余,那么余數一定是0、1、2或3,沒錯,正好與我們之前的服務器編號相同。

如果求余的結果為0, 我們就把當前圖片名稱對應的圖片緩存在0號服務器上;如果余數為1,就把當前圖片名對應的圖片緩存在1號服務器上;如果余數為2,同理。那么,當我們訪問任意一個圖片的時候,只要再次對圖片名稱進行上述運算,即可得出對應的圖片應該存放在哪一台緩存服務器上,我們只要在這一台服務器上查找圖片即可,如果圖片在對應的服務器上不存在,則證明對應的圖片沒有被緩存,也不用再去遍歷其他緩存服務器了,通過這樣的方法,即可將3萬張圖片隨機的分布到3台緩存服務器上了,而且下次訪問某張圖片時,直接能夠判斷出該圖片應該存在於哪台緩存服務器上,這樣就能滿足我們的需求了,我們暫時稱上述算法為HASH算法或者取模算法。

上圖中,假設我們查找的是”a.png”,由於有4台服務器(排除從庫),因此公式為

hash(a.png) % 4 = 2

,可知定位到了第2號服務器,這樣的話就不會遍歷所有的服務器,大大提升了性能!

 

四、使用Hash的問題

上述的方式雖然提升了性能,我們不再需要對整個Redis服務器進行遍歷!但是,使用上述HASH算法進行緩存時,會出現一些缺陷,主要體現在服務器數量變動的時候,所有緩存的位置都要發生改變!

試想一下,如果3台緩存服務器已經不能滿足我們的緩存需求,那么我們應該怎么做呢?沒錯,很簡單,多增加兩台緩存服務器不就行了,假設,我們增加了一台緩存服務器,那么緩存服務器的數量就由4台變成了5台,此時,如果仍然使用上述方法對同一張圖片進行緩存,那么這張圖片所在的服務器編號必定與原來4台服務器時所在的服務器編號不同,因為除數由4變為了5,被除數不變的情況下,余數肯定不同,這種情況帶來的結果就是當服務器數量變動時,所有緩存的位置都要發生改變,換句話說,當服務器數量發生改變時,所有緩存在一定時間內是失效的,當應用無法從緩存中獲取數據時,則會向后端服務器請求數據,同理,假設4台緩存中突然有一台緩存服務器出現了故障,無法進行緩存,那么我們則需要將故障機器移除,但是如果移除了一台緩存服務器,那么緩存服務器數量從4台變為3台,如果想要訪問一張圖片,這張圖片的緩存位置必定會發生改變,以前緩存的圖片也會失去緩存的作用與意義,由於大量緩存在同一時間失效,造成了緩存的雪崩,此時前端緩存已經無法起到承擔部分壓力的作用,后端服務器將會承受巨大的壓力,整個系統很有可能被壓垮,所以,我們應該想辦法不讓這種情況發生,但是由於上述HASH算法本身的緣故,使用取模法進行緩存時,這種情況是無法避免的。

我們來回顧一下使用上述算法會出現的問題。

問題1:當緩存服務器數量發生變化時,會引起緩存的雪崩,可能會引起整體系統壓力過大而崩潰(大量緩存同一時間失效)。

問題2:當緩存服務器數量發生變化時,幾乎所有緩存的位置都會發生改變,怎樣才能盡量減少受影響的緩存呢?

其實,上面兩個問題是一個問題,那么,一致性哈希算法能夠解決上述問題嗎?解決這些問題,一致性哈希算法誕生了。

 

五、一致性哈希的基本概念

一致性Hash算法也是使用取模的方法,只是,剛才描述的取模法是對服務器的數量進行取模,而一致性Hash算法是對2^32取模,什么意思呢?簡單來說,一致性Hash算法將整個哈希值空間組織成一個虛擬的圓環,如假設某哈希函數H的值空間為0-2^32-1(即哈希值是一個32位無符號整形),整個哈希環如下:

整個空間按順時針方向組織,圓環的正上方的點代表0,0點右側的第一個點代表1,以此類推,2、3、4、5、6……直到2^32-1,也就是說0點左側的第一個點代表2^32-1, 0和2^32-1在零點中方向重合,我們把這個由2^32個點組成的圓環稱為Hash環

那么,一致性哈希算法與上圖中的圓環有什么關系呢?我們繼續聊,仍然以之前描述的場景為例,假設我們有4台緩存服務器,服務器A、服務器B、服務器C,服務器D,那么,在生產環境中,這4台服務器肯定有自己的IP地址或主機名,我們使用它們各自的IP地址或主機名作為關鍵字進行哈希計算,使用哈希后的結果對2^32取模,可以使用如下公式示意:

hash(服務器A的IP地址) %  2^32

通過上述公式算出的結果一定是一個0到2^32-1之間的一個整數,我們就用算出的這個整數,代表服務器A,既然這個整數肯定處於0到2^32-1之間,那么,上圖中的hash環上必定有一個點與這個整數對應,而我們剛才已經說明,使用這個整數代表服務器A,那么,服務器A就可以映射到這個環上。

以此類推,下一步將各個服務器使用類似的Hash算式進行一個哈希,這樣每台機器就能確定其在哈希環上的位置,這里假設將上文中四台服務器使用IP地址哈希后在環空間的位置如下:

 

接下來使用如下算法定位數據訪問到相應服務器:  將數據key使用相同的函數Hash計算出哈希值,並確定此數據在環上的位置,從此位置沿環順時針“行走”,第一台遇到的服務器就是其應該定位到的服務器

例如我們有Object A、Object B、Object C、Object D四個數據對象,經過哈希計算后,在環空間上的位置如下:

 

根據一致性Hash算法,數據A會被定為到Node A上,B被定為到Node B上,C被定為到Node C上,D被定為到Node D上。

說到這里可能會有疑問,為什么hash一致性的數據空間范圍是2^32次方?

因為,java中int的最大值是2^31-1最小值是-2^31,2^32剛好是無符號整形的最大值;

進一步追尾基礎,為什么java中int的最大值是2^31-1最小值是-2^31?

因為,int的最大值最小值范圍設定是因為一個int占4個字節,一個字節占8位,二進制中剛好是32位。(基礎忘記的需要惡補一下了)

 

六、一致性Hash算法的容錯性和可擴展性

現假設Node C不幸宕機,可以看到此時對象A、B、D不會受到影響,只有C對象被重定位到Node D。一般的,在一致性Hash算法中,如果一台服務器不可用,則受影響的數據僅僅是此服務器到其環空間中前一台服務器(即沿着逆時針方向行走遇到的第一台服務器)之間數據,其它不會受到影響,如下所示:

下面考慮另外一種情況,如果在系統中增加一台服務器Node X,如下圖所示:

此時對象Object A、B、D不受影響,只有對象C需要重定位到新的Node X !一般的,在一致性Hash算法中,如果增加一台服務器,則受影響的數據僅僅是新服務器到其環空間中前一台服務器(即沿着逆時針方向行走遇到的第一台服務器)之間數據,其它數據也不會受到影響。

綜上所述,一致性Hash算法對於節點的增減都只需重定位環空間中的一小部分數據,具有較好的容錯性和可擴展性。

 

七、Hash環的數據傾斜問題

一致性Hash算法在服務節點太少時,容易因為節點分部不均勻而造成數據傾斜(被緩存的對象大部分集中緩存在某一台服務器上)問題,例如系統中只有兩台服務器,其環分布如下:

此時必然造成大量數據集中到Node A上,而只有極少量會定位到Node B上,從而出現hash環偏斜的情況,當hash環偏斜以后,緩存往往會極度不均衡的分布在各服務器上,如果想要均衡的將緩存分布到2台服務器上,最好能讓這2台服務器盡量多的、均勻的出現在hash環上,但是,真實的服務器資源只有2台,我們怎樣憑空的讓它們多起來呢,沒錯,就是憑空的讓服務器節點多起來,既然沒有多余的真正的物理服務器節點,我們就只能將現有的物理節點通過虛擬的方法復制出來。

這些由實際節點虛擬復制而來的節點被稱為"虛擬節點",即對每一個服務節點計算多個哈希,每個計算結果位置都放置一個此服務節點,稱為虛擬節點。具體做法可以在服務器IP或主機名的后面增加編號來實現。

例如上面的情況,可以為每台服務器計算三個虛擬節點,於是可以分別計算 “Node A#1”、“Node A#2”、“Node A#3”、“Node B#1”、“Node B#2”、“Node B#3”的哈希值,於是形成六個虛擬節點:

 

同時數據定位算法不變,只是多了一步虛擬節點到實際節點的映射,例如定位到“Node A#1”、“Node A#2”、“Node A#3”三個虛擬節點的數據均定位到Node A上。這樣就解決了服務節點少時數據傾斜的問題。在實際應用中,通常將虛擬節點數設置為32甚至更大,因此即使很少的服務節點也能做到相對均勻的數據分布。

 

八、總結

上文中,我們一步步分析了什么是一致性Hash算法,主要是考慮到分布式系統每個節點都有可能失效,並且新的節點很可能動態的增加進來的情況,如何保證當系統的節點數目發生變化的時候,我們的系統仍然能夠對外提供良好的服務,這是值得考慮的!

 

參考:白話解析:一致性哈希算法 consistent hashing


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM