Top K算法


應用場景:

        搜索引擎會通過日志文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度為1-255字節。
        假設目前有一千萬個記錄(這些查詢串的重復度比較高,雖然總數是1千萬,但如果除去重復后,不超過3百萬個。一個查詢串的重復度越高,說明查詢它的用戶越多,也就是越熱門。),請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。

 

問題解析:

要統計最熱門查詢,首先就是要統計每個Query出現的次數,然后根據統計結果,找出Top 10。所以我們可以基於這個思路分兩步來設計該算法。

即,此問題的解決分為以下倆個步驟:

第一步:Query統計              (統計出每個Query出現的次數)       

Query統計有以下倆個方法,可供選擇:
        1、直接排序法                  (經常在日志文件中統計時,使用cat file|format key|sort | uniq -c | sort -nr | head -n 10,就是這種方法)
        首先我們最先想到的的算法就是排序了,首先對這個日志里面的所有Query都進行排序,然后再遍歷排好序的Query,統計每個Query出現的次數了。

但是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是255Byte,很顯然要占據2.375G內存,這個條件就不滿足要求了。

讓我們回憶一下數據結構課程上的內容,當數據量比較大而且內存無法裝下的時候,我們可以采用外排序的方法來進行排序,這里我們可以采用歸並排序,因為歸並排序有一個比較好的時間復雜度O(NlgN)。

排完序之后我們再對已經有序的Query文件進行遍歷,統計每個Query出現的次數,再次寫入文件中。

綜合分析一下,排序的時間復雜度是O(NlgN),而遍歷的時間復雜度是O(N),因此該算法的總體時間復雜度就是O(N+NlgN)=O(NlgN)。

       2、Hash Table法                (這種方法統計字符串出現的次數非常好)
       在第1個方法中,我們采用了排序的辦法來統計每個Query出現的次數,時間復雜度是NlgN,那么能不能有更好的方法來存儲,而時間復雜度更低呢?

       題目中說明了,雖然有一千萬個Query,但是由於重復度比較高,因此事實上只有300萬的Query,每個Query 255Byte,因此我們可以考慮把他們都放進內存中去,而現在只是需要一個合適的數據結構,在這里,Hash Table絕對是我們優先的選擇,因為Hash Table的查詢速度非常的快,幾乎是O(1)的時間復雜度。

       那么,我們的算法就有了:

               維護一個Key為Query字串,Value為該Query出現次數的HashTable,每次讀取一個Query,如果該字串不在Table中,那么加入該字串,並且將Value值設為1;如果該字串在Table中,那么將該字串的計數加一即可。最終我們在O(N)的時間復雜度內完成了對該海量數據的處理。

                本方法相比算法1:在時間復雜度上提高了一個數量級,為O(N),但不僅僅是時間復雜度上的優化,該方法只需要IO數據文件一次,而算法1的IO次數較多的,因此該算法2比算法1在工程上有更好的可操作性。

第二步:找出Top 10          (找出出現次數最多的10個)    

 算法一:普通排序             (我們只用找出top10,所以全部排序有冗余)
     我想對於排序算法大家都已經不陌生了,這里不在贅述,我們要注意的是排序算法的時間復雜度是NlgN,在本題目中,三百萬條記錄,用1G內存是可以存下的。

     算法二:部分排序         
     題目要求是求出Top 10,因此我們沒有必要對所有的Query都進行排序,我們只需要維護一個10個大小的數組,初始化放入10個Query,按照每個Query的統計次數由大到小排序,然后遍歷這300萬條記錄,每讀一條記錄就和數組最后一個Query對比,如果小於這個Query,那么繼續遍歷,否則,將數組中最后一條數據淘汰(還是要放在合適的位置,保持有序),加入當前的Query。最后當所有的數據都遍歷完畢之后,那么這個數組中的10個Query便是我們要找的Top10了。

      不難分析出,這樣,算法的最壞時間復雜度是N*K, 其中K是指top多少。

       算法三:堆
       在算法二中,我們已經將時間復雜度由NlogN優化到N*K,不得不說這是一個比較大的改進了,可是有沒有更好的辦法呢?

       分析一下,在算法二中,每次比較完成之后,需要的操作復雜度都是K,因為要把元素插入到一個線性表之中,而且采用的是順序比較。這里我們注意一下,該數組是有序的,一次我們每次查找的時候可以采用二分的方法查找,這樣操作的復雜度就降到了logK,可是,隨之而來的問題就是數據移動,因為移動數據次數增多了。不過,這個算法還是比算法二有了改進。

       基於以上的分析,我們想想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?

       回答是肯定的,那就是堆。
       借助堆結構,我們可以在log量級的時間內查找和調整/移動。因此到這里,我們的算法可以改進為這樣,維護一個K(該題目中是10)大小的小根堆,然后遍歷300萬的Query,分別和根元素進行對比。

思想與上述算法二一致,只是在算法三,我們采用了最小堆這種數據結構代替數組,把查找目標元素的時間復雜度有O(K)降到了O(logK)。
       那么這樣,采用堆數據結構,算法三,最終的時間復雜度就降到了N*logK,和算法二相比,又有了比較大的改進。

總結:

至此,算法就完全結束了,經過上述第一步、先用Hash表統計每個Query出現的次數,O(N);然后第二步、采用堆數據結構找出Top 10,N*O(logK)。所以,我們最終的時間復雜度是:O(N) + N'*O(logK)。(N為1000萬,N’為300萬)。

 

注:

當文件特別大而內存有限制時,可以將文件切片,分別處理小文件的top K問題,最終合並結果。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM