Redis哈希表的實現要點


Redis哈希表的實現要點

哈希算法的選擇

針對不同的key使用不同的hash算法,如對整型、字符串以及大小寫敏感的字符串分別使用不同的hash算法;

整型的Hash算法使用的是Thomas Wang's 32 Bit / 64 Bit Mix Function ,這是一種基於位移運算的散列方法。基於移位的散列是使用Key值進行移位操作。通常是結合左移和右移。每個移位過程的結果進行累加,最后移位的結果作為最終結果。這種方法的好處是避免了乘法運算,從而提高Hash函數本身的性能。

unsigned int dictIntHashFunction(unsigned int key)
{
    key += ~(key << 15);
    key ^=  (key >> 10);
    key +=  (key << 3);
    key ^=  (key >> 6);
    key += ~(key << 11);
    key ^=  (key >> 16);
    return key;
}

字符串使用的MurmurHash算法,MurmurHash算法具有高運算性能,低碰撞率的特點,由Austin Appleby創建於2008年,現已應用到Hadoop、libstdc++、nginx、libmemcached等開源系統。2011年Appleby被Google雇佣,隨后Google推出其變種的CityHash算法。
murmur是 multiply and rotate的意思,因為算法的核心就是不斷的乘和移位(x *= m; k ^= k >> r;)

unsigned int dictGenHashFunction(const void *key, int len) {
    /* 'm' and 'r' are mixing constants generated offline.
     They're not really 'magic', they just happen to work well.  */
    uint32_t seed = dict_hash_function_seed;
    const uint32_t m = 0x5bd1e995;
    const int r = 24;

    /* Initialize the hash to a 'random' value */
    uint32_t h = seed ^ len;

    /* Mix 4 bytes at a time into the hash */
    const unsigned char *data = (const unsigned char *)key;

    while(len >= 4) {
        uint32_t k = *(uint32_t*)data;

        k *= m;
        k ^= k >> r;
        k *= m;

        h *= m;
        h ^= k;

        data += 4;
        len -= 4;
    }

    /* Handle the last few bytes of the input array  */
    switch(len) {
    case 3: h ^= data[2] << 16;
    case 2: h ^= data[1] << 8;
    case 1: h ^= data[0]; h *= m;
    };

    /* Do a few final mixes of the hash to ensure the last few
     * bytes are well-incorporated. */
    h ^= h >> 13;
    h *= m;
    h ^= h >> 15;

    return (unsigned int)h;
}

一個好的hash算法需要滿足兩個條件:
1) 性能高,運算足夠快;
2) 相鄰的數據hash后分布廣;即使輸入的鍵是有規律的,算法仍然能給出一個很好的隨機分布性;
比如:murmur計算"abc"是1118836419,"abd"是413429783。而使用Horner算法,"abc"是96354, "abd"就比它多1(96355);

rehash

負載因子 = 當前結點數/桶的大小,超過1表示肯定有碰撞了;碰撞的結點,通過鏈表拉鏈起來;

所有哈希表的初始桶的大小為4,根據負載因子的變化進行rehash,重新分配空間(擴展或收縮)

當hash表的負載因子超過1后,進行擴展(小於0.01時,進行收縮);
所謂擴展,就是新建一個hash表2,將桶的數量增大(具體增大為:第一個大於等於usedSize的2的n次冥);然后將hash表1中結點都轉移到hash表2中;

rehash的觸發條件:
當做BGSAVE或BGREWRITEEOF時,負載因子超過5時觸發rehash,
沒有BGSAVE或BGREWRITEEOF時,負載因子超過1時觸發rehash;

在BGSAVE或BGREWRITEEOF時,使用到Linux的寫時復制,如果這時候做rehash,將會好用更多的內存空間(沒有變化的結點用一份,變化的結點復制一份)

漸進式rehash

一個hash表中的數據可能有幾百上千萬,不可能一次rehash轉移完,需要分批逐漸轉移;
在rehash的過程中,對redis的查詢、更新操作首先會在hash0中查找,沒有找到,然后轉到hash1中操作;
對於插入操作,直接插入到hash1中;最終目標是將hash表1變為空表,rehash完成;

value的存儲

鍵值對的實現,value 是一個union,對整型和字符串使用不同的存儲對象;

// 鍵
void *key;

// 值
union {
    void *val;
    uint64_t u64;
    int64_t s64;
} v;

ref:
《Hash 函數概覽》http://www.oschina.net/translate/state-of-hash-functions
《redis設計與實現》

Posted by: 大CC | 18NOV,2015
博客:blog.me115.com [訂閱]
Github:大CC


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM