Hash算法的講解


      散列表,又叫哈希表,它是基於快速存取的角度設計的,也是一種典型的“空間換時間”的做法。顧名思義,該數據結構可以理解為一個線性表,但是其中的元素不是緊密排列的,而是可能存在空隙。

      散列表(Hash table,也叫哈希表),是根據關鍵碼值(Key value)而直接進行訪問的數據結構。也就是說,它通過把關鍵碼值映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫做散列函數,存放記錄的數組叫做散列表。比如我們存儲70個元素,但我們可能為這70個元素申請了100個元素的空間。70/100=0.7,這個數字稱為負載因子。我們之所以這樣做,也 是為了“快速存取”的目的。我們基於一種結果盡可能隨機平均分布的固定函數H為每個元素安排存儲位置,這樣就可以避免遍歷性質的線性搜索,以達到快速存取。但是由於此隨機性,也必然導致一個問題就是沖突。所謂沖突,即兩個元素通過散列函數H得到的地址相同,那么這兩個元素稱為“同義詞”。這類似於70個人去一個有100個椅子的飯店吃飯。散列函數的計算結果是一個存儲單位地址,每個存儲單位稱為“桶”。設一個散列表有m個桶,則散列函數的值域應為[0,m-1]。      

     解決沖突是一個復雜問題。沖突主要取決於:

   (1)散列函數,一個好的散列函數的值應盡可能平均分布。

   (2)處理沖突方法。

   (3)負載因子的大小。太大不一定就好,而且浪費空間嚴重,負載因子和散列函數是聯動的。      

     解決沖突的辦法:     

   (1)線性探查法:沖突后,線性向前試探,找到最近的一個空位置。缺點是會出現堆積現象。存取時,可能不是同義詞的詞也位於探查序列,影響效率。     

   (2)雙散列函數法:在位置d沖突后,再次使用另一個散列函數產生一個與散列表桶容量m互質的數c,依次試探(d+n*c)%m,使探查序列跳躍式分布。

常用的構造散列函數的方法

  散列函數能使對一個數據序列的訪問過程更加迅速有效,通過散列函數,數據元素將被更快地定位:

  1. 直接尋址法:取關鍵字或關鍵字的某個線性函數值為散列地址。即H(key)=key或H(key) = a?key + b,其中a和b為常數(這種散列函數叫做自身函數)

  2. 數字分析法:分析一組數據,比如一組員工的出生年月日,這時我們發現出生年月日的前幾位數字大體相 同,這樣的話,出現沖突的幾率就會很大,但是我們發現年月日的后幾位表示月份和具體日期的數字差別很大,如果用后面的數字來構成散列地址,則沖突的幾率會 明顯降低。因此數字分析法就是找出數字的規律,盡可能利用這些數據來構造沖突幾率較低的散列地址。

  3. 平方取中法:取關鍵字平方后的中間幾位作為散列地址。

  4. 折疊法:將關鍵字分割成位數相同的幾部分,最后一部分位數可以不同,然后取這幾部分的疊加和(去除進位)作為散列地址。

  5. 隨機數法:選擇一隨機函數,取關鍵字的隨機值作為散列地址,通常用於關鍵字長度不同的場合。

  6. 除留余數法:取關鍵字被某個不大於散列表表長m的數p除后所得的余數為散列地址。即 H(key) = key MOD p, p<=m。不僅可以對關鍵字直接取模,也可在折疊、平方取中等運算之后取模。對p的選擇很重要,一般取素數或m,若p選的不好,容易產生同義詞。 查找的性能分析

  散列表的查找過程基本上和造表過程相同。一些關鍵碼可通過散列函數轉換的地址直接找到,另一些關鍵碼在散列函數得到的地址上產生了沖突,需要按 處理沖突的方法進行查找。在介紹的三種處理沖突的方法中,產生沖突后的查找仍然是給定值與關鍵碼進行比較的過程。所以,對散列表查找效率的量度,依然用平 均查找長度來衡量。

  查找過程中,關鍵碼的比較次數,取決於產生沖突的多少,產生的沖突少,查找效率就高,產生的沖突多,查找效率就低。因此,影響產生沖突多少的因素,也就是影響查找效率的因素。影響產生沖突多少有以下三個因素:

  1. 散列函數是否均勻;

  2. 處理沖突的方法;

  3. 散列表的裝填因子。

  散列表的裝填因子定義為:α= 填入表中的元素個數 / 散列表的長度

  α是散列表裝滿程度的標志因子。由於表長是定值,α與“填入表中的元素個數”成正比,所以,α越大,填入表中的元素較多,產生沖突的可能性就越大;α越小,填入表中的元素較少,產生沖突的可能性就越小。

  實際上,散列表的平均查找長度是裝填因子α的函數,只是不同處理沖突的方法有不同的函數。

  了解了hash基本定義,就不能不提到一些著名的hash算法,MD5 和 SHA-1 可以說是目前應用最廣泛的Hash算法,而它們都是以 MD4 為基礎設計的。那么他們都是什么意思呢?

  這里簡單說一下:

  (1) MD4

  MD4(RFC 1320)是 MIT 的 Ronald L. Rivest 在 1990 年設計的,MD 是 Message Digest 的縮寫。它適用在32位字長的處理器上用高速軟件實現--它是基於 32 位操作數的位操作來實現的。

  (2) MD5

  MD5(RFC 1321)是 Rivest 於1991年對MD4的改進版本。它對輸入仍以512位分組,其輸出是4個32位字的級聯,與 MD4 相同。MD5比MD4來得復雜,並且速度較之要慢一點,但更安全,在抗分析和抗差分方面表現更好

  (3) SHA-1 及其他

  SHA1是由NIST NSA設計為同DSA一起使用的,它對長度小於264的輸入,產生長度為160bit的散列值,因此抗窮舉(brute-force)性更好。SHA-1 設計時基於和MD4相同原理,並且模仿了該算法。

  哈希表不可避免沖突(collision)現象:對不同的關鍵字可能得到同一哈希地址 即key1≠key2,而hash(key1)=hash(key2)。因此,在建造哈希表時不僅要設定一個好的哈希函數,而且要設定一種處理沖突的方法。可如下描述哈希表:根據設定的哈希函數H(key)和所選中的處理沖突的方法,將一組關鍵字映象到一個有限的地址連續的地址集(區間)上並以關鍵字在地址集中的“象”作為相應記錄在表中的存儲位置,這種表被稱為哈希表。

  對於動態查找表而言,1) 表長不確定;2)在設計查找表時,只知道關鍵字所屬范圍,而不知道確切的關鍵字。因此,一般情況需建立一個函數關系,以f(key)作為關鍵字為key的 錄在表中的位置,通常稱這個函數f(key)為哈希函數。(注意:這個函數並不一定是數學函數)

  哈希函數是一個映象,即:將關鍵字的集合映射到某個地址集合上,它的設置很靈活,只要這個地址集合的大小不超出允許范圍即可。

  現實中哈希函數是需要構造的,並且構造的好才能使用的好。

  那么這些Hash算法到底有什么用呢?

  Hash算法在信息安全方面的應用主要體現在以下的3個方面:

  (1) 文件校驗

  我們比較熟悉的校驗算法有奇偶校驗和CRC校驗,這2種校驗並沒有抗數據篡改的能力,它們一定程度上能檢測並糾正數據傳輸中的信道誤碼,但卻不能防止對數據的惡意破壞。

  MD5 Hash算法的"數字指紋"特性,使它成為目前應用最廣泛的一種文件完整性校驗和(Checksum)算法,不少Unix系統有提供計算md5 checksum的命令。

  (2) 數字簽名

  Hash 算法也是現代密碼體系中的一個重要組成部分。由於非對稱算法的運算速度較慢,所以在數字簽名協議中,單向散列函數扮演了一個重要的角色。 對 Hash 值,又稱"數字摘要"進行數字簽名,在統計上可以認為與對文件本身進行數字簽名是等效的。而且這樣的協議還有其他的優點。

  (3) 鑒權協議

  如下的鑒權協議又被稱作挑戰--認證模式:在傳輸信道是可被偵聽,但不可被篡改的情況下,這是一種簡單而安全的方法。

文件hash值

  MD5-Hash-文件的數字文摘通過Hash函數計算得到。不管文件長度如何,它的Hash函數計算結果是一個固定長度的數字。與加密算法不 同,這一個Hash算法是一個不可逆的單向函數。采用安全性高的Hash算法,如MD5、SHA時,兩個不同的文件幾乎不可能得到相同的Hash結果。因 此,一旦文件被修改,就可檢測出來。

      Hash函數還有另外的含義。實際中的Hash函數是指把一個大范圍映射到一個小范圍。把大范圍映射到一個小范圍的目的往往是為了節省空間,使得數據容易保存。除此以外,Hash函數往往應用於查找上。所以,在考慮使用Hash函數之前,需要明白它的幾個限制:
1. Hash的主要原理就是把大范圍映射到小范圍;所以,你輸入的實際值的個數必須和小范圍相當或者比它更小。不然沖突就會很多。

2. 由於Hash逼近單向函數;所以,你可以用它來對數據進行加密。

3. 不同的應用對Hash函數有着不同的要求;比如,用於加密的Hash函數主要考慮它和單項函數的差距,而用於查找的Hash函數主要考慮它映射到小范圍的沖突率。 應用於加密的Hash函數已經探討過太多了,在作者的博客里面有更詳細的介紹。所以,本文只探討用於查找的Hash函數。 Hash函數應用的主要對象是數組(比如,字符串),而其目標一般是一個int類型。

以下我們都按照這種方式來說明。 一般的說,Hash函數可以簡單的划分為如下幾類:

1. 加法Hash; 2. 位運算Hash; 3. 乘法Hash; 4. 除法Hash; 5. 查表Hash; 6. 混合Hash;

下面詳細的介紹以上各種方式在實際中的運用。

 

一 加法Hash

所謂的加法Hash就是把輸入元素一個一個的加起來構成最后的結果。標准的加法Hash的構造如下:

static int additiveHash(String key, int prime) 

{ 

int hash, i; 

for (hash = key.length(), i = 0; i < key.length(); i++)   

hash += key.charAt(i); 

return (hash % prime); 

}

  

這里的prime是任意的質數,看得出,結果的值域為[0,prime-1]。

二 位運算Hash

這類型Hash函數通過利用各種位運算(常見的是移位和異或)來充分的混合輸入元素。比如,標准的旋轉Hash的構造如下:

static int rotatingHash(String key, int prime) { 

int hash, i;

 for (hash=key.length(), i=0; i    hash = (hash<<4>>28)^key.charAt(i); 

return (hash % prime); 

}

  

先移位,然后再進行各種位運算是這種類型Hash函數的主要特點。比如,以上的那段計算hash的代碼還可以有如下幾種變形:

hash = (hash<<5>>27)^key.charAt(i);

 hash += key.charAt(i); 

hash += (hash << 10); 

hash ^= (hash >> 6);

 if((i&1) == 0) { 

hash ^= (hash<<7>>3); 

} else { 

hash ^= ~((hash<<11>>5));

 } hash += (hash<<5> hash = key.charAt(i) + (hash<<6>>16) ? hash; hash ^= ((hash<<5>>2));

 

  

三 乘法Hash

這種類型的Hash函數利用了乘法的不相關性(乘法的這種性質,最有名的莫過於平方取頭尾的隨機數生成算法,雖然這種算法效果並不好)。比如,

static int bernstein(String key) { 

int hash = 0; int i; 

for (i=0; i return hash; 

}

  

jdk5.0里面的String類的hashCode()方法也使用乘法Hash。不過,它使用的乘數是31。推薦的乘數還有:131, 1313, 13131, 131313等等。 使用這種方式的著名Hash函數還有:

// 32位FNV算法 int M_SHIFT = 0;   

public int FNVHash(byte[] data)   {      

 int hash = (int)2166136261L;      

 for(byte b : data)           

hash = (hash * 16777619) ^ b;       

if (M_SHIFT == 0)           

return hash;      

 return (hash ^ (hash >> M_SHIFT)) & M_MASK; 

}

  

以及改進的FNV算法:

public static int FNVHash1(String data) {      

 final int p = 16777619;    

   int hash = (int)2166136261L;      

 for(int i=0;i          

 hash = (hash ^ data.charAt(i)) * p;      

 hash += hash << 13;      

 hash ^= hash >> 7;      

 hash += hash << 3;      

 hash ^= hash >> 17;       

hash += hash << 5;       

return hash; 

}

  

除了乘以一個固定的數,常見的還有乘以一個不斷改變的數,比如:

static int RSHash(String str) {       

int b    = 378551;       

int a    = 63689;      

 int hash = 0;
 for(int i = 0; i < str.length(); i++) {       

  hash = hash * a + str.charAt(i);       

  a    = a * b;      }    

  return (hash & 0x7FFFFFFF); 

}

  

雖然Adler32算法的應用沒有CRC32廣泛,不過,它可能是乘法Hash里面最有名的一個了。關於它的介紹,大家可以去看RFC 1950規范。

四 除法Hash

除法和乘法一樣,同樣具有表面上看起來的不相關性。不過,因為除法太慢,這種方式幾乎找不到真正的應用。需要注意的是,我們在前面看到的hash的  結果除以一個prime的目的只是為了保證結果的范圍。如果你不需要它限制一個范圍的話,可以使用如下的代碼替代”hash%prime”: hash = hash ^ (hash>>10) ^ (hash>>20)。

五 查表Hash

查表Hash最有名的例子莫過於CRC系列算法。雖然CRC系列算法本身並不是查表,但是,查表是它的一種最快的實現方式。下面是CRC32的實現:

static int crctab[256] = { 0x00000000, 0x77073096, 0xee0e612c, 0x990951ba, 0x076dc419, 0x706af48f,  0xe963a535, 0x9e6495a3, 0x0edb8832, 0x79dcb8a4, 0xe0d5e91e, 0x97d2d988,  0x09b64c2b, 0x7eb17cbd, 0xe7b82d07, 0x90bf1d91, 0x1db71064, 0x6ab020f2,  0xf3b97148, 0x84be41de, 0x1adad47d, 0x6ddde4eb, 0xf4d4b551, 0x83d385c7, 0x136c9856, 0x646ba8c0, 0xfd62f97a, 0x8a65c9ec, 0x14015c4f, 0x63066cd9, 0xfa0f3d63, 0x8d080df5, 0x3b6e20c8, 0x4c69105e, 0xd56041e4, 0xa2677172, 0x3c03e4d1, 0x4b04d447, 0xd20d85fd, 0xa50ab56b, 0x35b5a8fa, 0x42b2986c, 0xdbbbc9d6, 0xacbcf940, 0x32d86ce3, 0x45df5c75, 0xdcd60dcf, 0xabd13d59, 0x26d930ac, 0x51de003a, 0xc8d75180, 0xbfd06116, 0x21b4f4b5, 0x56b3c423, 0xcfba9599, 0xb8bda50f, 0x2802b89e, 0x5f058808, 0xc60cd9b2, 0xb10be924, 0x2f6f7c87, 0x58684c11, 0xc1611dab, 0xb6662d3d, 0x76dc4190, 0x01db7106, 0x98d220bc, 0xefd5102a, 0x71b18589, 0x06b6b51f, 0x9fbfe4a5, 0xe8b8d433, 0x7807c9a2, 0x0f00f934, 0x9609a88e, 0xe10e9818, 0x7f6a0dbb, 0x086d3d2d, 0x91646c97, 0xe6635c01, 0x6b6b51f4, 0x1c6c6162, 0x856530d8, 0xf262004e, 0x6c0695ed, 0x1b01a57b, 0x8208f4c1, 0xf50fc457, 0x65b0d9c6, 0x12b7e950, 0x8bbeb8ea, 0xfcb9887c, 0x62dd1ddf, 0x15da2d49, 0x8cd37cf3, 0xfbd44c65, 0x4db26158, 0x3ab551ce, 0xa3bc0074, 0xd4bb30e2, 0x4adfa541, 0x3dd895d7, 0xa4d1c46d, 0xd3d6f4fb, 0x4369e96a, 0x346ed9fc, 0xad678846, 0xda60b8d0, 0x44042d73, 0x33031de5, 0xaa0a4c5f, 0xdd0d7cc9, 0x5005713c, 0x270241aa, 0xbe0b1010, 0xc90c2086, 0x5768b525, 0x206f85b3, 0xb966d409, 0xce61e49f, 0x5edef90e, 0x29d9c998, 0xb0d09822, 0xc7d7a8b4, 0x59b33d17, 0x2eb40d81, 0xb7bd5c3b, 0xc0ba6cad, 0xedb88320, 0x9abfb3b6, 0x03b6e20c, 0x74b1d29a, 0xead54739, 0x9dd277af, 0x04db2615, 0x73dc1683, 0xe3630b12, 0x94643b84, 0x0d6d6a3e, 0x7a6a5aa8, 0xe40ecf0b, 0x9309ff9d, 0x0a00ae27, 0x7d079eb1, 0xf00f9344, 0x8708a3d2, 0x1e01f268, 0x6906c2fe, 0xf762575d, 0x806567cb, 0x196c3671, 0x6e6b06e7, 0xfed41b76, 0x89d32be0, 0x10da7a5a, 0x67dd4acc,  0xf9b9df6f, 0x8ebeeff9, 0x17b7be43, 0x60b08ed5, 0xd6d6a3e8, 0xa1d1937e,  0x38d8c2c4, 0x4fdff252, 0xd1bb67f1, 0xa6bc5767, 0x3fb506dd, 0x48b2364b,  0xd80d2bda, 0xaf0a1b4c, 0x36034af6, 0x41047a60, 0xdf60efc3, 0xa867df55, 0x316e8eef, 0x4669be79, 0xcb61b38c, 0xbc66831a, 0x256fd2a0, 0x5268e236, 0xcc0c7795, 0xbb0b4703, 0x220216b9, 0x5505262f, 0xc5ba3bbe, 0xb2bd0b28, 0x2bb45a92, 0x5cb36a04, 0xc2d7ffa7, 0xb5d0cf31, 0x2cd99e8b, 0x5bdeae1d, 0x9b64c2b0, 0xec63f226, 0x756aa39c, 0x026d930a, 0x9c0906a9, 0xeb0e363f, 0x72076785, 0x05005713, 0x95bf4a82, 0xe2b87a14, 0x7bb12bae, 0x0cb61b38, 0x92d28e9b, 0xe5d5be0d, 0x7cdcefb7, 0x0bdbdf21, 0x86d3d2d4, 0xf1d4e242, 0x68ddb3f8, 0x1fda836e, 0x81be16cd, 0xf6b9265b, 0x6fb077e1, 0x18b74777, 0x88085ae6, 0xff0f6a70, 0x66063bca, 0x11010b5c, 0x8f659eff, 0xf862ae69, 0x616bffd3, 0x166ccf45, 0xa00ae278, 0xd70dd2ee, 0x4e048354, 0x3903b3c2, 0xa7672661, 0xd06016f7, 0x4969474d, 0x3e6e77db, 0xaed16a4a, 0xd9d65adc, 0x40df0b66, 0x37d83bf0, 0xa9bcae53, 0xdebb9ec5, 0x47b2cf7f, 0x30b5ffe9, 0xbdbdf21c, 0xcabac28a, 0x53b39330, 0x24b4a3a6, 0xbad03605, 0xcdd70693, 0x54de5729, 0x23d967bf, 0xb3667a2e, 0xc4614ab8, 0x5d681b02, 0x2a6f2b94, 0xb40bbe37, 0xc30c8ea1, 0x5a05df1b, 0x2d02ef8d }; int crc32(String key, int hash) { int i; for (hash=key.length(), i=0; i   hash = (hash >> 8) ^ crctab[(hash & 0xff) ^ k.charAt(i)]; return hash; }

查表Hash中有名的例子有:Universal Hashing和Zobrist Hashing。他們的表格都是隨機生成的。
六 混合Hash

混合Hash算法利用了以上各種方式。各種常見的Hash算法,比如MD5、Tiger都屬於這個范圍。它們一般很少在面向查找的Hash函數里面使用

 

 

 

作者:July、wuliming、pkuoliver

  說明:本文分為三部分內容, 第一部分為一道百度面試題Top K算法的詳解;第二部分為關於Hash表算法的詳細闡述;第三部分為打造一個最快的Hash表算法。

  第一部分:Top K 算法詳解

  問題描述(百度面試題):

  搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。),請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。

  必備知識:

  什么是哈希表?

  哈希表(Hash table,也叫散列表),是根據key而直接進行訪問的數據結構。也就是說,它通過把key映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫做散列函數,存放記錄的數組叫做散列表。

  哈希表的做法其實很簡單,就是把key通過一個固定的算法函數即所謂的哈希函數轉換成一個整型數字,然后就將該數字對數組長度進行取余,取余結果就當作數組的下標,將value存儲在以該數字為下標的數組空間里。

    而當使用哈希表進行查詢的時候,就是再次使用哈希函數將key轉換為對應的數組下標,並定位到該空間獲取value,如此一來,就可以充分利用到數組的定位性能進行數據定位文章第二、三部分,會針對Hash表詳細闡述

  問題解析:

  要統計最熱門查詢,首先就是要統計每個Query出現的次數,然后根據統計結果,找出Top 10。所以我們可以基於這個思路分兩步來設計該算法。

  即,此問題的解決分為以下兩個步驟:

  第一步:Query統計

  Query統計有以下倆個方法,可供選擇:

  1、直接排序法

  首先我們最先想到的的算法就是排序了,首先對這個日志里面的所有Query都進行排序,然后再遍歷排好序的Query,統計每個Query出現的次數了。

  但是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是255Byte,很顯然要占據2.375G內存,這個條件就不滿足要求了。

  讓我們回憶一下數據結構課程上的內容,當數據量比較大而且內存無法裝下的時候,我們可以采用外排序的方法來進行排序,這里我們可以采用歸並排序,因為歸並排序有一個比較好的時間復雜度O(nlogn)。

  排完序之后我們再對已經有序的Query文件進行遍歷,統計每個Query出現的次數,再次寫入文件中。

  綜合分析一下,排序的時間復雜度是O(nlogn),而遍歷的時間復雜度是O(n),因此該算法的總體時間復雜度就是O(n+nlogn)=O(nlogn)。

  2、Hash Table法

  在第1個方法中,我們采用了排序的辦法來統計每個Query出現的次數,時間復雜度是O(nlogn),那么能不能有更好的方法來存儲,而時間復雜度更低呢?

  題目中說明了,雖然有一千萬個Query,但是由於重復度比較高,因此事實上只有300萬的Query,每個Query 255Byte,因此我們可以考慮把他們都放進內存中去,而現在只是需要一個合適的數據結構,在這里,Hash Table絕對是我們優先的選擇,因為Hash Table的查詢速度非常的快,幾乎是O(1)的時間復雜度。

  那么,我們的算法就有了:維護一個Key為Query字串,Value為該Query出現次數的HashTable,每次讀取一個Query,如果該字串不在Table中,那么加入該字串,並且將Value值設為1;如果該字串在Table中,那么將該字串的計數加一即可。最終我們在O(n)的時間復雜度內完成了對該海量數據的處理。

  本方法相比算法1:在時間復雜度上提高了一個數量級,為O(n),但不僅僅是時間復雜度上的優化,該方法只需要IO數據文件一次,而算法1的IO次數較多的,因此該算法2比算法1在工程上有更好的可操作性。

  第二步:找出Top 10

  算法一:普通排序

    我想對於排序算法大家都已經不陌生了,這里不在贅述,我們要注意的是排序算法的時間復雜度是O(nlogn),在本題目中,三百萬條記錄,用1G內存是可以存下的。

  算法二:部分排序

  題目要求是求出Top 10,因此我們沒有必要對所有的Query都進行排序,我們只需要維護一個10個大小的數組,初始化放入10個Query,按照每個Query的統計次數由大到小排序,然后遍歷這300萬條記錄,每讀一條記錄就和數組最后一個Query對比,如果小於這個Query,那么繼續遍歷,否則,將數組中最后一條數據淘汰,加入當前的Query。最后當所有的數據都遍歷完畢之后,那么這個數組中的10個Query便是我們要找的Top10了。

  不難分析出,這樣,算法的最壞時間復雜度是N*K, 其中K是指top多少。

  算法三:堆

  在算法二中,我們已經將時間復雜度由NlogN優化到NK,不得不說這是一個比較大的改進了,可是有沒有更好的辦法呢?

  分析一下,在算法二中,每次比較完成之后,需要的操作復雜度都是K,因為要把元素插入到一個線性表之中,而且采用的是順序比較。這里我們注意一下,該數組是有序的,一次我們每次查找的時候可以采用二分的方法查找,這樣操作的復雜度就降到了logK,可是,隨之而來的問題就是數據移動,因為移動數據次數增多了。不過,這個算法還是比算法二有了改進。

  基於以上的分析,我們想想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?回答是肯定的,那就是堆。

  借助堆結構,我們可以在log量級的時間內查找和調整/移動。因此到這里,我們的算法可以改進為這樣,維護一個K(該題目中是10)大小的小根堆,然后遍歷300萬的Query,分別和根元素進行對比。

  思想與上述算法二一致,只是算法在算法三,我們采用了最小堆這種數據結構代替數組,把查找目標元素的時間復雜度有O(K)降到了O(logK)。

  那么這樣,采用堆數據結構,算法三,最終的時間復雜度就降到了N‘logK,和算法二相比,又有了比較大的改進。 

  總結:

  至此,算法就完全結束了,經過上述第一步、先用Hash表統計每個Query出現的次數,O(N);然后第二步、采用堆數據結構找出Top 10,N*O(logK)。所以,我們最終的時間復雜度是:O(N)+N'*O(logK)。(N為1000萬,N’為300萬)。如果各位有什么更好的算法,歡迎留言評論。

  第二部分、Hash表算法的詳細解析

  什么是Hash

  Hash,一般翻譯做“散列”,也有直接音譯為“哈希”的,就是把任意長度的輸入(又叫做預映射, pre-image),通過散列算法,變換成固定長度的輸出,該輸出就是散列值。這種轉換是一種壓縮映射,也就是,散列值的空間通常遠小於輸入的空間,不同的輸入可能會散列成相同的輸出,而不可能從散列值來唯一的確定輸入值。簡單的說就是一種將任意長度的消息壓縮到某一固定長度的消息摘要的函數。

  Hash主要用於信息安全領域中加密算法,它把一些不同長度的信息轉化成雜亂的128位的編碼,這些編碼值叫做HASH值. 也可以說,Hash就是找到一種數據內容和數據存放地址之間的映射關系。

  數組的特點是:尋址容易,插入和刪除困難;而鏈表的特點是:尋址困難,插入和刪除容易。那么我們能不能綜合兩者的特性,做出一種尋址容易,插入刪除也容易的數據結構?答案是肯定的,這就是我們要提起的哈希表,哈希表有多種不同的實現方法,我接下來解釋的是最常用的一種方法——拉鏈法,我們可以理解為“鏈表的數組”,如圖:

    左邊很明顯是個數組,數組的每個成員包括一個指針,指向一個鏈表的頭,當然這個鏈表可能為空,也可能元素很多。我們根據元素的一些特征把元素分配到不同的鏈表中去,也是根據這些特征,找到正確的鏈表,再從鏈表中找出這個元素。

  元素特征轉變為數組下標的方法就是散列法。散列法當然不止一種,下面列出三種比較常用的:

  1,除法散列法 

  最直觀的一種,上圖使用的就是這種散列法,公式: 

      index = value % 16 

  學過匯編的都知道,求模數其實是通過一個除法運算得到的,所以叫“除法散列法”。

  2,平方散列法 

  求index是非常頻繁的操作,而乘法的運算要比除法來得省時(對現在的CPU來說,估計我們感覺不出來),所以我們考慮把除法換成乘法和一個位移操作。公式: 

      index = (value * value) >> 28   右移,除以2^28。記法:左移變大,是乘。右移變小,是除。

  如果數值分配比較均勻的話這種方法能得到不錯的結果,但我上面畫的那個圖的各個元素的值算出來的index都是0——非常失敗。也許你還有個問題,value如果很大,value * value不會溢出嗎?答案是會的,但我們這個乘法不關心溢出,因為我們根本不是為了獲取相乘結果,而是為了獲取index。

  3,斐波那契(Fibonacci)散列法

  平方散列法的缺點是顯而易見的,所以我們能不能找出一個理想的乘數,而不是拿value本身當作乘數呢?答案是肯定的。

  1,對於16位整數而言,這個乘數是40503。

  2,對於32位整數而言,這個乘數是2654435769。

  3,對於64位整數而言,這個乘數是11400714819323198485。

  這幾個“理想乘數”是如何得出來的呢?這跟一個法則有關,叫黃金分割法則,而描述黃金分割法則的最經典表達式無疑就是著名的斐波那契數列,即如此形式的序列:0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144,233, 377, 610, 987, 1597, 2584, 4181, 6765, 10946,…。另外,斐波那契數列的值和太陽系八大行星的軌道半徑的比例出奇吻合。

  對我們常見的32位整數而言,公式: 

  index = (value * 2654435769) >> 28

  如果用這種斐波那契散列法的話,那上面的圖就變成這樣了:

  很明顯,用斐波那契散列法調整之后要比原來的取摸散列法好很多。 

  適用范圍

  快速查找,刪除的基本數據結構,通常需要總數據量可以放入內存。

  基本原理及要點

  hash函數選擇,針對字符串、整數、排列,具體相應的hash方法。 

  碰撞處理,一種是open hashing,也稱為拉鏈法;另一種就是closed hashing,也稱開地址法,opened addressing。

  擴展 

  d-left hashing中的d是多個的意思,我們先簡化這個問題,看一看2-left hashing。2-left hashing指的是將一個哈希表分成長度相等的兩半,分別叫做T1和T2,給T1和T2分別配備一個哈希函數,h1和h2。在存儲一個新的key時,同時用兩個哈希函數進行計算,得出兩個地址h1[key]和h2[key]。這時需要檢查T1中的h1[key]位置和T2中的h2[key]位置,哪一個位置已經存儲的(有碰撞的)key比較多,然后將新key存儲在負載少的位置。如果兩邊一樣多,比如兩個位置都為空或者都存儲了一個key,就把新key存儲在左邊的T1子表中,2-left也由此而來。在查找一個key時,必須進行兩次hash,同時查找兩個位置。

  問題實例(海量數據處理) 

  我們知道hash 表在海量數據處理中有着廣泛的應用,下面,請看另一道百度面試題:

  題目:海量日志數據,提取出某日訪問百度次數最多的那個IP。

  方案:IP的數目還是有限的,最多2^32個,所以可以考慮使用hash將IP直接存入內存,然后進行統計。 

  第三部分、最快的Hash表算法

  接下來,咱們來具體分析一下一個最快的Hash表算法。

  我們由一個簡單的問題逐步入手:有一個龐大的字符串數組,然后給你一個單獨的字符串,讓你從這個數組中查找是否有這個字符串並找到它,你會怎么做?有一個方法最簡單,老老實實從頭查到尾,一個一個比較,直到找到為止,我想只要學過程序設計的人都能把這樣一個程序作出來,但要是有程序員把這樣的程序交給用戶,我只能用無語來評價,或許它真的能工作,但...也只能如此了。

  最合適的算法自然是使用HashTable(哈希表),先介紹介紹其中的基本知識,所謂Hash,一般是一個整數,通過某種算法,可以把一個字符串"壓縮" 成一個整數。當然,無論如何,一個32位整數是無法對應回一個字符串的,但在程序中,兩個字符串計算出的Hash值相等的可能非常小,下面看看在MPQ中的Hash算法:

  函數一、以下的函數生成一個長度為0x500(合10進制數:1280)的cryptTable[0x500]

void prepareCryptTable()
{ 
    unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;
    for( index1 = 0; index1 < 0x100; index1++ )
    { 
        for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
        { 
            unsigned long temp1, temp2;
            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp1 = (seed & 0xFFFF) << 0x10; 
            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp2 = (seed & 0xFFFF); 
            cryptTable[index2] = ( temp1 | temp2 ); 
       } 
   }
} 

  函數二、以下函數計算lpszFileName字符串的hash值,其中dwHashType為hash的類型(在下面的函數三GetHashTablePos函數中調用此函數二),其可以取的值為0、1、2;該函數返回lpszFileName 字符串的hash值: 

unsigned long HashString( char *lpszFileName, unsigned long dwHashType )
{ 
    unsigned char *key  = (unsigned char *)lpszFileName;
    unsigned long seed1 = 0x7FED7FED;
    unsigned long seed2 = 0xEEEEEEEE;
    int ch;
    while(*key != 0)
    { 
        ch = toupper(*key++);
        seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);
        seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3; 
    }
    return seed1; 
}

  Blizzard的這個算法是非常高效的,被稱為"One-Way Hash"(A one-way hash is a an algorithm that is constructed in such a way that deriving the original string (set of strings, actually) is virtually impossible)。舉個例子,字符串"unitneutralacritter.grp"通過這個算法得到的結果是0xA26067F3。

  是不是把第一個算法改進一下,改成逐個比較字符串的Hash值就可以了呢?答案是,遠遠不夠。要想得到最快的算法,就不能進行逐個的比較,通常是構造一個哈希表(Hash Table)來解決問題。哈希表是一個大數組,這個數組的容量根據程序的要求來定義,例如1024,每一個Hash值通過取模運算 (mod) 對應到數組中的一個位置。這樣,只要比較這個字符串的哈希值對應的位置有沒有被占用,就可以得到最后的結果了,想想這是什么速度?是的,是最快的O(1),現在仔細看看這個算法吧:

typedef struct
{
    int nHashA;
    int nHashB;
    char bExists;
    ......
} SOMESTRUCTRUE;

  一種可能的結構體定義?

  函數三、下述函數為在Hash表中查找是否存在目標字符串,有則返回要查找字符串的Hash值,無則,return -1.

int GetHashTablePos( har *lpszString, SOMESTRUCTURE *lpTable ) 
//lpszString要在Hash表中查找的字符串,lpTable為存儲字符串Hash值的Hash表。
{ 
    int nHash = HashString(lpszString);  //調用上述函數二,返回要查找字符串lpszString的Hash值。
    int nHashPos = nHash % nTableSize; 
    if ( lpTable[nHashPos].bExists  &&  !strcmp( lpTable[nHashPos].pString, lpszString ) ) 
    //如果找到的Hash值在表中存在,且要查找的字符串與表中對應位置的字符串相同
    {  
        return nHashPos;    //則返回上述調用函數二后,找到的Hash值
    } 
    else
    {
        return -1;  
    } 
}

    看到此,我想大家都在想一個很嚴重的問題:“如果兩個字符串在哈希表中對應的位置相同怎么辦?”,畢竟一個數組容量是有限的,這種可能性很大。解決該問題的方法很多,我首先想到的就是用“鏈表”,感謝大學里學的數據結構教會了這個百試百靈的法寶,我遇到的很多算法都可以轉化成鏈表來解決,只要在哈希表的每個入口掛一個鏈表,保存所有對應的字符串就OK了。事情到此似乎有了完美的結局,如果是把問題獨自交給我解決,此時我可能就要開始定義數據結構然后寫代碼了。

  然而Blizzard的程序員使用的方法則是更精妙的方法。基本原理就是:他們在哈希表中不是用一個哈希值而是用三個哈希值來校驗字符串。 

  MPQ使用文件名哈希表來跟蹤內部的所有文件。但是這個表的格式與正常的哈希表有一些不同。首先,它沒有使用哈希作為下標,把實際的文件名存儲在表中用於驗證,實際上它根本就沒有存儲文件名。而是使用了3種不同的哈希:一個用於哈希表的下標,兩個用於驗證。這兩個驗證哈希替代了實際文件名。

  當然了,這樣仍然會出現2個不同的文件名哈希到3個同樣的哈希。但是這種情況發生的概率平均是:1:18889465931478580854784,這個概率對於任何人來說應該都是足夠小的。現在再回到數據結構上,Blizzard使用的哈希表沒有使用鏈表,而采用"順延"的方式來解決問題,看看這個算法:

  函數四、lpszString為要在hash表中查找的字符串;lpTable為存儲字符串hash值的hash表;nTableSize 為hash表的長度: 

int GetHashTablePos( char *lpszString, MPQHASHTABLE *lpTable, int nTableSize )
{
    const int  HASH_OFFSET = 0, HASH_A = 1, HASH_B = 2;
    int  nHash = HashString(lpszString, HASH_OFFSET);
    int  nHashA = HashString(lpszString, HASH_A);
    int  nHashB = HashString(lpszString, HASH_B);
    int  nHashStart = nHash % nTableSize;
    int  nHashPos = nHashStart; 
    while ( lpTable[nHashPos].bExists )
   {
     /* 如果僅僅是判斷在該表中時候存在這個字符串,就比較這兩個hash值就可以了,不用對結構體中的字符串進行比較。這樣會加快運行的速度?減少hash表占用的空間?這種
方法一般應用在什么場合?*/
       if (lpTable[nHashPos].nHashA == nHashA
       &&  lpTable[nHashPos].nHashB == nHashB )
       {
            return nHashPos;
       }
       else
       {
            nHashPos = (nHashPos + 1) % nTableSize;
       }
        if (nHashPos == nHashStart) break;
    }
     return -1;
}

  上述程序解釋:

  1. 計算出字符串的三個哈希值(一個用來確定位置,另外兩個用來校驗)

  2. 察看哈希表中的這個位置

  3. 哈希表中這個位置為空嗎?如果為空,則肯定該字符串不存在,返回-1。

  4. 如果存在,則檢查其他兩個哈希值是否也匹配,如果匹配,則表示找到了該字符串,返回其Hash值。

  5. 移到下一個位置,如果已經移到了表的末尾,則反繞到表的開始位置起繼續查詢 

  6. 看看是不是又回到了原來的位置,如果是,則返回沒找到

  7. 回到3

  ok,這就是本文中所說的最快的Hash表算法。什么?不夠快?:D。歡迎,各位批評指正。

  --------------------------------------------

  補充1、一個簡單的hash函數:

/*key為一個字符串,nTableLength為哈希表的長度
*該函數得到的hash值分布比較均勻*/
unsigned long getHashIndex( const char *key, int nTableLength )
{
    unsigned long nHash = 0;
    while (*key)
    {
        nHash = (nHash<<5) + nHash + *key++;
    }
    return (nHash % nTableLength);
}

  補充2、一個完整測試程序:  

  哈希表的數組是定長的,如果太大,則浪費,如果太小,體現不出效率。合適的數組大小是哈希表的性能的關鍵。哈希表的尺寸最好是一個質數。當然,根據不同的數據量,會有不同的哈希表的大小。對於數據量時多時少的應用,最好的設計是使用動態可變尺寸的哈希表,那么如果你發現哈希表尺寸太小了,比如其中的元素是哈希表尺寸的2倍時,我們就需要擴大哈希表尺寸,一般是擴大一倍。 

    下面是哈希表尺寸大小的可能取值:

     17,            37,          79,        163,          331,  

    673,           1361,        2729,       5471,         10949,        

   21911,          43853,      87719,      175447,      350899,

  701819,         1403641,    2807303,     5614657,     11229331,   

 22458671,       44917381,    89834777,    179669557,   359339171,  

718678369,      1437356741,  2147483647

  以下為該程序的完整源碼,已在Linux下測試通過:

#include <stdio.h>  
#include <ctype.h>     //多謝citylove指正。  
//crytTable[]里面保存的是HashString函數里面將會用到的一些數據,在prepareCryptTable  
//函數里面初始化  
unsigned long cryptTable[0x500];  
//以下的函數生成一個長度為0x500(合10進制數:1280)的cryptTable[0x500]  
void prepareCryptTable()  
{   
    unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;  
    for( index1 = 0; index1 < 0x100; index1++ )  
    {   
        for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )  
        {   
            unsigned long temp1, temp2;  
            seed = (seed * 125 + 3) % 0x2AAAAB;  
            temp1 = (seed & 0xFFFF) << 0x10;  
            seed = (seed * 125 + 3) % 0x2AAAAB;  
            temp2 = (seed & 0xFFFF);  
            cryptTable[index2] = ( temp1 | temp2 );   
       }   
   }   
}  
//以下函數計算lpszFileName 字符串的hash值,其中dwHashType 為hash的類型,  
//在下面GetHashTablePos函數里面調用本函數,其可以取的值為0、1、2;該函數  
//返回lpszFileName 字符串的hash值;  
unsigned long HashString( char *lpszFileName, unsigned long dwHashType )  
{   
    unsigned char *key  = (unsigned char *)lpszFileName;  
unsigned long seed1 = 0x7FED7FED;  
unsigned long seed2 = 0xEEEEEEEE;  
    int ch;  
    while( *key != 0 )  
    {   
        ch = toupper(*key++);  
        seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);  
        seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3;   
    }  
    return seed1;   
}  
//在main中測試argv[1]的三個hash值:  
//./hash  "arr/units.dat"  
//./hash  "unit/neutral/acritter.grp"  
int main( int argc, char **argv )  
{  
    unsigned long ulHashValue;  
    int i = 0;  
    if ( argc != 2 )  
    {  
        printf("please input two arguments/n");  
        return -1;  
    }  
     /*初始化數組:crytTable[0x500]*/  
     prepareCryptTable();  
     /*打印數組crytTable[0x500]里面的值*/  
     for ( ; i < 0x500; i++ )  
     {  
         if ( i % 10 == 0 )  
         {  
             printf("/n");  
         }  
         printf("%-12X", cryptTable[i] );  
     }  
     ulHashValue = HashString( argv[1], 0 );  
     printf("/n----%X ----/n", ulHashValue );  
     ulHashValue = HashString( argv[1], 1 );  
     printf("----%X ----/n", ulHashValue );  
     ulHashValue = HashString( argv[1], 2 );  
     printf("----%X ----/n", ulHashValue );  
     return 0;  
}  

 參考地址:

 http://www.cnblogs.com/xwdreamer/archive/2012/05/14/2499339.html
 http://www.cnblogs.com/xiohao/p/4389672.html
 
 
 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM