轉:http://hi.baidu.com/gilbertjuly/item/6690ba0dfdf57adfdde5b040
虛擬地址VA到物理地址PA以頁page為單位。通常page的大小為4K。物理頁面成為page frame。
查看應用程序進程的地址空間,可以看到分為很多段,比如代碼段(只讀)、數據段(讀寫)、堆、共享庫(其中進一步分段)、棧空間等。整個應用程序的地址空間不會用滿4GB,因為還有一部分是內核空間,應用程序不能訪問。
再打開一個相同的應用程序查看其進程的地址空間,也是類似的,甚至是一樣的。因為采用采用了虛擬地址,經過轉換在物理地址上還是分開的。(代碼段可能沒有分開,因為可以共用)
采用虛擬內存的原因:
1.讓每個進程有獨立的地址空間,一個好處是某個進程不會破壞其他進程,另一個好處是每個進程都認為有4GB地址空間,編程方便。
2.物理上分開地址空間,經過虛擬內存的管理,可以使得邏輯上是連續的。
3. 所有進程的虛擬內存之和可能大於物理內存。這是通過借用磁盤來實現的,將一時不用的虛擬內存保持到磁盤。磁盤上這部分成為交換設備,可以是分區,也可以是 一個文件。所以系統中可分配的內存總量 = 物理內存的大小 + 交換設備的大小 。交換的過程成為頁的換入和換出,期間需要對內存重新映射。
4.增加內存的保護屬性,如內核地址空間、只讀地址空間等。
虛 擬地址到物理地址是一個查表的過程,但可能不只一個表,是一個多級的表。虛擬地址本身分為幾個部分,page地址和page內地址(對於4KB的頁來說就 是11bit),page地址分為多級用於查表。這個過程稱為Translation Table Walk,由硬件完成。上述所指的表,是保存在內存上的。
page大,page table小;
page大,減少TLB的miss;
page大,分配memory容易造成浪費;
上 圖給出了CPU,MMU,Cache的布局,MMU應該包括了TLB和Translation Table Walk。TLB(Translation Lookaside Buffer)是一塊高速緩存,緩存最近查找過的VA對應的頁表項。如果TLB中有需要查表的VA,就不用Translation Table Walk了,Translation Table Walk較慢要從內存上讀表。
Cache的儲存單位是line,假設每個 line有32bytes。為了表示某個line是屬於哪個VA的,Cache里還有TAG。最簡單的TAG就是VA的地址了(按32bytes的 line對齊),Cache控制器檢查CPU給出VA和TAG是否一致,一致的話表示命中(Hit),將數據返回給CPU,否則的話靠MMU轉成PA從內 存中讀取數據。
上述這個Cache的設計稱為全相聯,特點是一個VA可以緩存到任何line里,但問題是Cache可能有很多line,比如512個line,每次都需要一個個TAG比較過來,這樣速度較慢。
另一種Cache的設計稱為直接映射,特定的VA只能存在特定的Cache line里,映射規則為Cache line = (VA line)%(Cacle line總數)。這樣的問題是Cache line里的數據進出可能太過於平凡,導致命中率較低。
全 相聯Cache和直接映射Cache各有優缺點,全相聯Cache查找很慢,但沒有抖動問題(命中率低),直接映射Cache則正相反。實際CPU的 Cache設計是取兩者的折衷,把所有Cache Line分成若干個組,每一組有n條Cache Line,稱為n路組相聯Cache(n-way Set Associative Cache)。n路組相聯Cache的特點是特定的內存行只能放在特定的組內,但是可以放在組內的任意cache line上。
Cache寫回內存有兩種模式:
Write Back:Cache Line中的數據被CPU核修改時並不立刻寫回內存,Cache Line和內存中的數據會暫時不一致,在Cache Line中有一個Dirty位標記這一情況。當一條Cache Line要被其它VA的數據替換時,如果不是Dirty的就直接替換掉,如果是Dirty的就先寫回內存再替換。
Write Through:每當CPU核修改Cache Line中的數據時就立刻寫回內存,Cache Line和內存中的數據總是一致的。如果有多個CPU或設備同時訪問內存,例如采用雙口RAM,那么Cache中的數據和內存保持一致就非常重要了,這時 相關的內存頁面通常配置為Write Through模式。
page是os的概念,而cache是cpu的概念。虛擬地址和物理地址以page為單位進行操作的,由兩部分組成:page地址和page內地址:
采用多路組聯的cache,如之前所述,這樣的Cache分為多個set(組),每個組里面又有多個line/way(行),每個line里面又有多個字節。
對某個page進行操作時,會將page分配到cache里,這種分配是按照一定關系的。
假設page的大小為4KB,考慮物理地址;
cache的大小為2M,16384個4-Way SET,32 Bytes line,即32*4*16384=2M。
執行memset(0, 0, 4*1024)的話,這4KB內存在cache上會放在連續的0到127set中每個set的第1個line;
執行memset(1, 0, 4*1024)的話,這4KB內存在cache上會放在連續的128到255set中每個set的第1個line;
...
執行memset(128, 0, 4*1024)的話,這4KB內存在cache上會放在連續的0到127set中每個set的第2個line;
執行memset(129, 0, 4*1024)的話,這4KB內存在cache上會放在連續的128到255set中每個set的第2個line;
就是說第ith物理頁面會與第(128*j+i)th個物理頁面中Cache中占據同樣的Cache Sets。Set滿了之后,按照一定的算法 ,比如LRU算法(Least Recently Used algorithm)清除之前的數據。
以上說的是現象,產生上述現象的原因可以用下圖來解釋:
物理地址的位5-11是page中的偏移地址,7位,可以表示128個set;
物理地址的位12-31是page frame地址的,對某一個page來說是固定的,決定了上述128個set在cache中的位置。
128個set的合集有個專用的名詞,稱為Cache Bin。
