緩存算法(頁面置換算法)-FIFO、LFU、LRU
在前一篇文章中通過leetcode的一道題目了解了LRU算法的具體設計思路,下面繼續來探討一下另外兩種常見的Cache算法:FIFO、LFU
1.FIFO算法
FIFO(First in First out),先進先出。其實在操作系統的設計理念中很多地方都利用到了先進先出的思想,比如作業調度(先來先服務),為什么這個原則在很多地方都會用到呢?因為這個原則簡單、且符合人們的慣性思維,具備公平性,並且實現起來簡單,直接使用數據結構中的隊列即可實現。
在FIFO Cache設計中,核心原則就是:如果一個數據最先進入緩存中,則應該最早淘汰掉。也就是說,當緩存滿的時候,應當把最先進入緩存的數據給淘汰掉。在FIFO Cache中應該支持以下操作;
get(key):如果Cache中存在該key,則返回對應的value值,否則,返回-1;
set(key,value):如果Cache中存在該key,則重置value值;如果不存在該key,則將該key插入到到Cache中,若Cache已滿,則淘汰最早進入Cache的數據。
舉個例子:假如Cache大小為3,訪問數據序列為set(1,1),set(2,2),set(3,3),set(4,4),get(2),set(5,5)
則Cache中的數據變化為:
(1,1) set(1,1)
(1,1) (2,2) set(2,2)
(1,1) (2,2) (3,3) set(3,3)
(2,2) (3,3) (4,4) set(4,4)
(2,2) (3,3) (4,4) get(2)
(3,3) (4,4) (5,5) set(5,5)
那么利用什么數據結構來實現呢?
下面提供一種實現思路:
利用一個雙向鏈表保存數據,當來了新的數據之后便添加到鏈表末尾,如果Cache存滿數據,則把鏈表頭部數據刪除,然后把新的數據添加到鏈表末尾。在訪問數據的時候,如果在Cache中存在該數據的話,則返回對應的value值;否則返回-1。如果想提高訪問效率,可以利用hashmap來保存每個key在鏈表中對應的位置。
2.LFU算法
LFU(Least Frequently Used)最近最少使用算法。它是基於“如果一個數據在最近一段時間內使用次數很少,那么在將來一段時間內被使用的可能性也很小”的思路。
注意LFU和LRU算法的不同之處,LRU的淘汰規則是基於訪問時間,而LFU是基於訪問次數的。舉個簡單的例子:
假設緩存大小為3,數據訪問序列為set(2,2),set(1,1),get(2),get(1),get(2),set(3,3),set(4,4),
則在set(4,4)時對於LFU算法應該淘汰(3,3),而LRU應該淘汰(1,1)。
那么LFU Cache應該支持的操作為:
get(key):如果Cache中存在該key,則返回對應的value值,否則,返回-1;
set(key,value):如果Cache中存在該key,則重置value值;如果不存在該key,則將該key插入到到Cache中,若Cache已滿,則淘汰最少訪問的數據。
為了能夠淘汰最少使用的數據,因此LFU算法最簡單的一種設計思路就是 利用一個數組存儲 數據項,用hashmap存儲每個數據項在數組中對應的位置,然后為每個數據項設計一個訪問頻次,當數據項被命中時,訪問頻次自增,在淘汰的時候淘汰訪問頻次最少的數據。這樣一來的話,在插入數據和訪問數據的時候都能達到O(1)的時間復雜度,在淘汰數據的時候,通過選擇算法得到應該淘汰的數據項在數組中的索引,並將該索引位置的內容替換為新來的數據內容即可,這樣的話,淘汰數據的操作時間復雜度為O(n)。
另外還有一種實現思路就是利用 小頂堆+hashmap,小頂堆插入、刪除操作都能達到O(logn)時間復雜度,因此效率相比第一種實現方法更加高效。
如果哪位朋友有更高效的實現方式(比如O(1)時間復雜度),不妨探討一下,不勝感激。
3.LRU算法
LRU算法的原理以及實現在前一篇博文中已經談到,在此不進行贅述:
http://www.cnblogs.com/dolphin0520/p/3741519.html
參考鏈接:http://blog.csdn.net/hexinuaa/article/details/6630384
http://blog.csdn.net/beiyetengqing/article/details/7855933
http://outofmemory.cn/wr/?u=http%3A%2F%2Fblog.csdn.net%2Fyunhua_lee%2Farticle%2Fdetails%2F7648549