談談面試--哈希表系列



前言:
  我以前在百度的mentor, 在面試時特喜歡考察哈希表. 那時的我滿是疑惑和不解, 覺得這東西很基礎, 不就的分桶理念(以空間換時間)和散列函數選擇嗎? 最多再考察點沖突解決方案. 為何不考察類似跳躍表, LSM樹等高級數據結構呢?
  隨着工程實踐的積累, 慢慢發現了自己當初的膚淺. 面試的切入點, 最好是大家所熟悉的, 但又能從中深度挖掘/剖析和具有區分度的.
  本文結合自己的工程實踐, 來談談對哈希表的優化和實踐的一些理解.

基礎篇:
  哈希表由一定大小的連續桶(bucket)構成, 借助散列函數映射到具體某個桶上. 當多個key/value對聚集到同一桶時, 會演化構成一個鏈表.
  
  哈希表結構有兩個重要的參數, 容量大小(Capacity)和負載因子(LoadFactor). 兩者的乘積 Capacity * LoadFactor決定了哈希表rehash的觸發條件.
  以空間換時間為核心思想, 確保其數據結構的訪問時間控制在O(1).
  哈希表隱藏了內部細節, 而對外的使用則非常的簡單. 只需定義key的hash函數compare函數即可.
  以Java為例, 其把默認的hash函數和equals函數置於頂層的Object基類中.

class Object {
    public native int hashCode(); 
    public boolean equals(Object obj) {
        return (this == obj);
    }
}

  所有的子類, 需要重載hashCode和equals就能方便的使用哈希表.

進階篇:
  hash函數的選擇需保證一定散列度, 這樣才能充分利用空間. 事實上哈希表的使用者, 往往關注hash函數的快速計算和高散列度, 卻忽視了其潛在的風險和危機.
  1). hash碰撞攻擊
  前段時間, php爆出hash碰撞的攻擊漏洞. 其攻擊原理, 簡單可概括為: 特定的大量key組合, 讓哈希表退化為鏈表訪問, 進而拖慢處理速度, 請求堆積, 最終演變為拒絕服務狀態.
  
  具體可參考博文: PHP哈希表碰撞攻擊原理
  大致的思路是利用php哈希表大小為2的冪次, 索引位置計算由 hash(key) % size(bucket) 轉變為 hash(key) & (1^n - 1).
  
  黑客(hacker)知曉time33算法和hash函數, 可以構造/收集特定的key系列, 使得其hash(key)為同一桶索引值. 通過post請求附帶, 導致php構造超長鏈的哈希表.
  其實如果能理解hash碰撞攻擊的原理, 說明其對hash的沖突處理和哈希表本身的數據結構模型有了較深的理解了.

  2). 分段鎖機制
  如果加鎖是不可避免的選擇, 那能否減少鎖沖突的概率呢?
  答案是肯定的, 不同桶之間的key/value操作彼此互不影響. 在此前提下, 對哈希桶進行分段加鎖. 這樣全局鎖就退化為多個分段鎖, 而鎖沖突的概率由於分區的原因, 降低至1/N (N為分段鎖個數).
  
  Java並發類中的ConcurrentHashMap也是采用類似的思想來實現, 不過比這復雜多了.

難度篇:
  哈希表單key的操作復雜度為O(1), 性能異常優異. 但需要對哈希表進行迭代遍歷其所有元素時, 其性能就非常的差. 究其原因是各個key/value對分散在各個桶中, 彼此並無關聯. 元素遍歷轉化為對哈希桶的全掃描.
  那如果存在這樣的需求, 既要保證O(1)的單key操作時間復雜度, 又要讓迭代遍歷的復雜度為O(n) (n為哈希表的key/value對個數, 不是桶個數), 那如何去實現呢?
  1). LinkedHashMap&LRU緩存
  是否存在一個復合數據結構, 既有Hashmap的特性, 又具備DoubleLinkedList線性遍歷的特征?
  答案是肯定的, 該復合結構就是LinkedHashmap.
  
  注: 依次添加key1, key2, ..., key6, 其按插入順序構成一個雙向列表.
  一圖勝千言, 該圖很形象的描述了LinkedHashMap的構成. 可以這么認為: 每個hash entry的結構的基礎上, 添加prev和next成員指針用於維護雙向列表. 實現就這么簡單.
  在工程實踐中, 往往采用LinkedHashMap的變體來實現帶LRU機制的Cache.
  簡單描述其操作流程:
  (1). 查詢/添加key, 則把該key/value對擱置於LRU隊列的末尾
  (2). 若key/value對個數超過閾值時, 則選擇把LRU隊列的首元素淘汰掉.
  模擬key5元素被查詢訪問, 成為最近的熱點, 則內部的鏈接模型狀態轉變如下:

  注: key5被訪問后, 內部雙向隊列發生變動, 可以理解為刪除key5, 然后再添加key5至末尾.
  JAVA實現帶LRU機制的Cache非常的簡單, 用如下代碼片段描述下:

public class LRULinkedHashMap<K, V> extends LinkedHashMap<K, V> {  
   
    private int capacity = 1024;  

    public LRULinkedHashMap(int initialCapacity, float loadFactor, int lruCapacity) {
     // access order=> true:訪問順序, false:插入順序 
        super(initialCapacity, loadFactor, true);  
        this.capacity = lruCapacity;  
    }  

    @Override  
    protected boolean removeEldestEntry(Entry<K, V> eldest) {  
        if(size() > capacity) {  
            return true;  
        }  
        return false;  
    }  
} 

  注: 需要注意access order為true, 表示按訪問順序維護. 使用Java編程的孩子真幸福.

  當哈希表中的元素數量超過預定的閾值時, 就會觸發rehash過程. 但是若此時的hash表已然很大, rehash的完整過程會阻塞服務很長時間. 這對高可用高響應的服務是不可想象的災難.
  面對這種情況, 要么避免大數據量的rehash出現, 預先對數據規模進行有效評估. 要么就繼續優化哈希的rehash過程.
  2). 0/1切換和漸進式rehash
  redis的設計者給出了一個很好的解決方案, 就是0/1切換hash表+漸進式rehash.
  其漸進的rehash把整個遷移過程拆分為多個細粒度的子過程, 同時0/1切換的hash表共存.
  redis的rehash過程分兩種方式:
  • lazy rehashing: 在對dict操作的時候附帶執行一個slot的rehash
  • active rehashing:定時做個小時間片的rehash

總結:
  哈希表作為常用的數據結構, 被人所熟知. 但對其進一步的理解和挖掘, 需要真正的工程實踐積累. 洗盡鉛華始見真.

寫在最后:
  
如果你覺得這篇文章對你有幫助, 請小小打賞下. 其實我想試試, 看看寫博客能否給自己帶來一點小小的收益. 無論多少, 都是對樓主一種由衷的肯定.

   

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM