HashMap與HashTable源碼學習及效率比較分析


  一、個人學習后的見解:

    首先表明學習源碼后的個人見解,后續一次依次進行分析:

    1、線程安全:HashMap是非線程安全的,HashTable是線程安全的(HashTable中使用了synchronized關鍵字進行控制),HashMap對應的線程安全的有concurrentHashMap,但如果不用concurrentHashMap的話,也可以只用Collections.synchronizedMap(Map)進行轉換。

    2、key值為null時的不同處理方式:HashMap允許key值為null,並會把key值為null放在Entry數組中的第一個bucket中;HashTable不允許存放key為null的存放,如果為null會拋出異常。

    3、數據結構:HashMap和HashTable都使用哈希表來存儲鍵值對。后邊具體分析。

    4、算法:其一、HashMap中對於key值的定位有內部封裝的hash算法,而HashTable中是直接使用.hashcode獲取hash值;其二、關於兩者容量大小的定義也決定了兩者在算法方面的不同效果。

    5、效率問題:單線程情況下_耗時:HashMap.put > HashTable.put;HashMap.get < HashTable.get

    6、根據HashTable注釋表名其相當於被棄用了。

  二、對上面簡介的分析:

    1、第一點不用解釋了,源碼中直接體現出來了,想了解者可觀看源碼。

    2、如圖為HashMap的源碼部分

         

      對於HashMap的key為null時會調用putForNullKey方法(想了解者可查看源碼)進行處理,將value值放入Entry數組的第一個bucket中。

      下圖為HashTable的源碼部分

                       

       我們可以明確的看到,HashTable的put方法如果key值為null時,會拋出NullPointerException空指針異常。

      從源碼出我們可以看出來對於兩者對null的不同待遇只是因為代碼處理不同,並沒有對效率或者其他有影響。

  3、數據結構:

    HashMap和HashTable都使用哈希表來存儲鍵值對。在數據結構上是基本相同的,都創建了一個繼承自Map.Entry的私有的內部類Entry,每一個Entry對象表示存儲在哈希表中的一個鍵值對。

    Entry對象唯一表示一個鍵值對,有四個屬性:

      -K key 鍵對象
      -V value 值對象
      -int hash 鍵對象的hash值
      -Entry entry 指向鏈表中下一個Entry對象,可為null,表示當前Entry對象在鏈表尾部

    可以說,有多少個鍵值對,就有多少個Entry對象,那么在HashMap和HashTable中是怎么存儲這些Entry對象,以方便我們快速查找和修改的呢?請看下圖。

    上圖畫出的是一個桶數量為8,存有5個鍵值對的HashMap/HashTable的內存布局情況。可以看到HashMap/HashTable內部創建有一個Entry類型的引用數組,用來表示哈希表,數組的長度,即是哈希桶的數量。而數組的每一個元素都是一個Entry引用,從Entry對象的屬性里,也可以看出其是鏈表的節點,每一個Entry對象內部又含有另一個Entry對象的引用。

    這樣就可以得出結論,HashMap/HashTable內部用Entry數組實現哈希表,而對於映射到同一個哈希桶(數組的同一個位置)的鍵值對,使用Entry鏈表來存儲(解決hash沖突)。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
以下代碼及注釋來自java.util.HashTable
 
/**
  * The hash table data.
  */
private transient Entry<K,V>[] table;
 
 
以下代碼及注釋來自java.util.HashMap
 
/**
  * The table, resized as necessary. Length MUST Always be a power of two.
  */
transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;

從代碼可以看到,對於哈希桶的內部表示,兩個類的實現是一致的。

  4、算法

    第3點已經說了用來表示哈希表的內部數據結構。HashMap/HashTable還需要有算法來將給定的鍵key,映射到確定的hash桶(數組位置)。需要有算法在哈希桶內的鍵值對多到一定程度時,擴充哈希表的大小(數組的大小)。本小節比較這兩個類在算法層面有哪些不同。

    初始容量大小和每次擴充容量大小的不同。先看代碼:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
以下代碼及注釋來自java.util.HashTable
 
// 哈希表默認初始大小為11
public Hashtable() {
     this ( 11 , 0 .75f);
}
 
protected void rehash() {
     int oldCapacity = table.length;
     Entry<K,V>[] oldMap = table;
 
     // 每次擴容為原來的2n+1
     int newCapacity = (oldCapacity << 1 ) + 1 ;
     // ...
}
 
 
以下代碼及注釋來自java.util.HashMap
 
// 哈希表默認初始大小為2^4=16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 ; // aka 16
 
void addEntry( int hash, K key, V value, int bucketIndex) {
     // 每次擴充為原來的2n
     if ((size >= threshold) && ( null != table[bucketIndex])) {
        resize( 2 * table.length);
}

    可以看到HashTable默認的初始大小為11,之后每次擴充為原來的2n+1。HashMap默認的初始化大小為16,之后每次擴充為原來的2倍。還有我沒列出代碼的一點,就是如果在創建時給定了初始化大小,那么HashTable會直接使用你給定的大小,而HashMap會將其擴充為2的冪次方大小。

    也就是說HashTable會盡量使用素數、奇數。而HashMap則總是使用2的冪作為哈希表的大小。我們知道當哈希表的大小為素數時,簡單的取模哈希的結果會更加均勻(具體證明,見這篇文章),所以單從這一點上看,HashTable的哈希表大小選擇,似乎更高明些。但另一方面我們又知道,在取模計算時,如果模數是2的冪,那么我們可以直接使用位運算來得到結果,效率要大大高於做除法。所以從hash計算的效率上,又是HashMap更勝一籌。

    所以,事實就是HashMap為了加快hash的速度,將哈希表的大小固定為了2的冪。當然這引入了哈希分布不均勻的問題,所以HashMap為解決這問題,又對hash算法做了一些改動。具體我們來看看,在獲取了key對象的hashCode之后,HashTable和HashMap分別是怎樣將他們hash到確定的哈希桶(Entry數組位置)中的。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
以下代碼及注釋來自java.util.HashTable
 
// hash 不能超過Integer.MAX_VALUE 所以要取其最小的31個bit
int hash = hash(key);
int index = (hash & 0x7FFFFFFF ) % tab.length;
 
// 直接計算key.hashCode()
private int hash(Object k) {
     // hashSeed will be zero if alternative hashing is disabled.
     return hashSeed ^ k.hashCode();
}
 
 
以下代碼及注釋來自java.util.HashMap
int hash = hash(key);
int i = indexFor(hash, table.length);
 
// 在計算了key.hashCode()之后,做了一些位運算來減少哈希沖突
final int hash(Object k) {
     int h = hashSeed;
     if ( 0 != h && k instanceof String) {
         return sun.misc.Hashing.stringHash32((String) k);
     }
 
     h ^= k.hashCode();
 
     // This function ensures that hashCodes that differ only by
     // constant multiples at each bit position have a bounded
     // number of collisions (approximately 8 at default load factor).
     h ^= (h >>> 20 ) ^ (h >>> 12 );
     return h ^ (h >>> 7 ) ^ (h >>> 4 );
}
 
// 取模不再需要做除法
static int indexFor( int h, int length) {
     // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2";
     return h & (length- 1 );
}

    正如我們所言,HashMap由於使用了2的冪次方,所以在取模運算時不需要做除法,只需要位的與運算就可以了。但是由於引入的hash沖突加劇問題,HashMap在調用了對象的hashCode方法之后,又做了一些位運算在打散數據。關於這些位計算為什么可以打散數據的問題,本文不再展開了。感興趣的可以看這里。

    如果你有細心讀代碼,還可以發現一點,就是HashMap和HashTable在計算hash時都用到了一個叫hashSeed的變量。這是因為映射到同一個hash桶內的Entry對象,是以鏈表的形式存在的,而鏈表的查詢效率比較低,所以HashMap/HashTable的效率對哈希沖突非常敏感,所以可以額外開啟一個可選hash(hashSeed),從而減少哈希沖突。因為這是兩個類相同的一點,所以本文不再展開了,感興趣的看這里。事實上,這個優化在JDK 1.8中已經去掉了,因為JDK 1.8中,映射到同一個哈希桶(數組位置)的Entry對象,使用了紅黑樹來存儲,從而大大加速了其查找效率。

  5、關於效率問題:

    結論已經在文章開始時表名了,此處博主水准較低,並不是很能確認是因為以下幾點導致:

    HashMap.put > HashTable.put:

      參照數據結構介紹,hasmMap的容量永遠為2^*,所以HashMap在計算key所在位置時是采用了以為進行處理的;但此處會導致相同的hashcode變多,每個bucket(entry)的深度增加,所以后續put耗時較長。

    HashMap.get < HashTable.get:

       由於HashTable.get也做了同步處理,在這里對於鎖的處理時間時HashTable的耗時過長(對於我自己不是很有說服力,因為在put時也有鎖機制處理)

  6、HashTable已經配淘汰:

    

    如圖為Hashtable(jdk1.7版本)的注釋,已經很明確的表名了如果是單線程情況下建議使用HashMap,如果是多線程的情況下建議使用ConcurrentHashMap,此處可表明HashTable自己都不建議使用自己。

  關於第五點的具體原因希望有感興趣的或者大牛幫忙解答下~~

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM