Redis如何存儲和計算一億用戶的活躍度


1

前段時間,在網上看到一道面試題:

如何用redis存儲統計1億用戶一年的登陸情況,並快速檢索任意時間窗口內的活躍用戶數量。

覺得很有意思,就仔細想了下 。並做了一系列實驗,自己模擬了下 。還是有點收獲的,現整理下來。和大家一起分享。

Redis是一個內存數據庫,采用單線程和事件驅動的機制來處理網絡請求。實際生產的QPS和TPS單台都能達到3,4W,讀寫性能非常棒。用來存儲一些對核心業務弱影響的用戶狀態信息還是非常不錯的。

對於這題,有2個重要的點需要考慮:

1.如何用合適的數據類型來存儲1億用戶的數據,用普通的字符串來存儲肯定不行。經過查看一個最簡單的kv(key為aaa,value為1)的內存占用,發現為48byte。

file

假設每個用戶每天登陸需要占據1對KV的話,那一億就是(48*100000000)/1024/1024/1024=4.47G。這還是一天的量。

2.如何滿足搜索,redis是一個鍵值對的內存結構,只能根據key來進行定位value值,無法做到像elastic search那樣對文檔進行倒排索引快速全文檢索。

redis其實有這種數據結構的,可以以很少的空間來存儲大量的信息。

2

在redis 2.2.0版本之后,新增了一個位圖數據,其實它不是一種數據結構。實際上它就是一個一個字符串結構,只不過value是一個二進制數據,每一位只能是0或者1。redis單獨對bitmap提供了一套命令。可以對任意一位進行設置和讀取。

bitmap的核心命令:

SETBIT

語法:SETBIT key offset value

例如:

setbit abc 5 1 ----> 00001

setbit abc 2 1 ----> 00101

GETBIT

語法:GETBIT key offset

例如:

getbit abc 5 ----> 1

getbit abc 1 ----> 0

bitmap的其他命令還有bitcount,bitcount,bitpos,bitop等命令。都是對位的操作。

因為bitmap的每一位只占據1bit的空間 ,所以利用這個特性我們可以把每一天作為key,value為1億用戶的活躍度狀態。假設一個用戶一天內只要登錄了一次就算活躍。活躍我們就記為1,不活躍我們就記為0。把用戶Id作為偏移量(offset)。這樣我們一個key就可以存儲1億用戶的活躍狀態。

file

我們再來算下,這樣一個位圖結構的值對象占據多少空間。每一個位是1bit,一億用戶就是一億bit。8bit=1Byte

100000000/8/1024/1024=11.92M

我用測試工程往一個key里通過lua塞進了1億個bit,然后用rdb tools對內存進行統計,實測如下:

file

一天1億用戶也就消耗12M的內存空間。這完全符合要求。1年的話也就4個G。幾年下來的話,redis可以集群部署來進行擴容存儲。我們也可以用位圖壓縮算法對bitmap進行壓縮存儲。例如WAH,EWAH,Roaring Bitmaps。這個以后可以單獨拉出來聊聊。

我們把每一天1億用戶的登陸狀態都用bitmap的形式存進了redis,那要獲取某一天id為88000的用戶是否活躍,直接使用getbit命令:

getbit 2020-01-01 88000 [時間復雜度為O(1)]

如果要統計某一天的所有的活躍用戶數,使用bitcount命令,bitcount可以統計1的個數,也就是活躍用戶數:

bitcount 2019-01-01 [時間復雜度為O(N)]

如果要統計某一段時間內的活躍用戶數,需要用到bitop命令。這個命令提供四種位運算,AND(與)(OR)或XOR(亦或)NOT(非)。我們可以對某一段時間內的所有key進行OR(或)操作,或操作出來的位圖是0的就代表這段時間內一次都沒有登陸的用戶。那只要我們求出1的個數就可以了。以下例子求出了2019-01-01到2019-01-05這段時間內的活躍用戶數。

bitop or result 2019-01-01 2019-01-02 2019-01-03 2019-01-04 2019-01-05 [時間復雜度為O(N)]

bitcount result

從時間復雜度上說,無論是統計某一天,還是統計一段時間。在實際測試時,基本上都是秒出的。符合我們的預期。

3

bitmap可以很好的滿足一些需要記錄大量而簡單信息的場景。所占空間十分小。通常來說使用場景分2類:

1.某一業務對象的橫向擴展,key為某一個業務對象的id,比如記錄某一個終端的功能開關,1代表開,0代表關。基本可以無限擴展,可以記錄2^32個位信息。不過這種用法由於key上帶有了業務對象的id,導致了key的存儲空間大於了value的存儲空間,從空間使用角度上來看有一定的優化空間。

2.某一業務的縱向擴展,key為某一個業務,把每一個業務對象的id作為偏移量記錄到位上。這道面試題的例子就是用此法來進行解決。十分巧妙的利用了用戶的id作為偏移量來找到相對應的值。當業務對象數量超過2^32時(約等於42億),還可以分片存儲。

看起來bitmap完美的解決了存儲和統計的問題。那有沒有比這個更加省空間的存儲嗎?

答案是有的。

4

redis從2.8.9之后增加了HyperLogLog數據結構。這個數據結構,根據redis的官網介紹,這是一個概率數據結構,用來估算數據的基數。能通過犧牲准確率來減少內存空間的消耗。

我們先來看看HyperLogLog的方法

PFADD 添加一個元素,如果重復,只算作一個

PFCOUNT 返回元素數量的近似值

PFMERGE 將多個 HyperLogLog 合並為一個 HyperLogLog

這很好理解,是不是。那我們就來看看同樣是存儲一億用戶的活躍度,HyperLogLog數據結構需要多少空間。是不是比bitmap更加省空間呢。

我通過測試工程往HyperLogLog里PFADD了一億個元素。通過rdb tools工具統計了這個key的信息:

file

只需要14392 Bytes!也就是14KB的空間。對,你沒看錯。就是14K。bitmap存儲一億需要12M,而HyperLogLog只需要14K的空間。

這是一個很驚人的結果。我似乎有點不敢相信使用如此小的空間竟能存儲如此大的數據量。

接下來我又放了1000w數據,統計出來還是14k。也就是說,無論你放多少數據進去,都是14K。

查了文檔,發現HyperLogLog是一種概率性數據結構,在標准誤差0.81%的前提下,能夠統計2^64個數據。所以 HyperLogLog 適合在比如統計日活月活此類的對精度要不不高的場景。

HyperLogLog使用概率算法來統計集合的近似基數。而它算法的最本源則是伯努利過程。

伯努利過程就是一個拋硬幣實驗的過程。拋一枚正常硬幣,落地可能是正面,也可能是反面,二者的概率都是 1/2 。伯努利過程就是一直拋硬幣,直到落地時出現正面位置,並記錄下拋擲次數k。比如說,拋一次硬幣就出現正面了,此時 k 為 1; 第一次拋硬幣是反面,則繼續拋,直到第三次才出現正面,此時 k 為 3。

對於 n 次伯努利過程,我們會得到 n 個出現正面的投擲次數值 k1, k2 ... kn , 其中這里的最大值是k_max。

根據一頓數學推導,我們可以得出一個結論: 2^{k_ max} 來作為n的估計值。也就是說你可以根據最大投擲次數近似的推算出進行了幾次伯努利過程。

5

雖然HyperLogLog數據類型這么牛逼,但終究不是精確統計。只適用於對精度要求不高的場景。而且這種類型無法得出每個用戶的活躍度信息。畢竟只有14K嘛。也不可能存儲下那么多數量的信息。

總結一下:對於文章開頭所提到的面試題來說,用bitmap和HyperLogLog都可以解決。

bitmap的優勢是:非常均衡的特性,精准統計,可以得到每個統計對象的狀態,秒出。缺點是:當你的統計對象數量十分十分巨大時,可能會占用到一點存儲空間,但也可在接受范圍內。也可以通過分片,或者壓縮的額外手段去解決。

HyperLogLog的優勢是:可以統計誇張到無法想象的數量,並且占用小的誇張的內存。 缺點是:建立在犧牲准確率的基礎上,而且無法得到每個統計對象的狀態。

我做了一個演示工程redis-bit,放在Gitee上,工程包括了初始化大容量的數據。和分別使用bitmap和HyperLogLog進行用戶活躍度的統計。最后通過http的方式進行輸出。

工程采用springboot+redisson客戶端。所有的參數支持配置

file

6

微信關注「jishuyuanren」獲取更多干貨,或者掃描以下二維碼

file

本文由博客群發一文多發等運營工具平台 OpenWrite 發布


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM