C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎


對編譯、鏈接、OS內核、系統調優等技術感興趣的童鞋,不妨右上角關注一下吧,近期會持續更新相關方面的專題文章!

引言

近日,網上看到一篇文章,分析數組訪問的性能問題。文章經過一系列“有理有據”的論證之后,居然得出結論:訪問數組的任意一個元素,程序性能上沒有任何差異。

看到這里,我徹底凌亂了!

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

真的沒有差異嗎?還是用數據說話吧!

注:為了盡可能把來龍去脈講清楚,篇幅稍長,請耐心看下去,相信你會有收獲!

實例一 多維數組交換行列訪問順序

這是演示Cache對程序性能影響的經典例子:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

array1.c 和 array2.c

兩個程序只有一行差異:

  • 第一個程序對數組按行進行訪問
  • 第二個程序對數組按列進行訪問

測試環境

OS / CPU:Ubuntu 19.04 / Xeon Gold 6130 2.10GHz

兩個比較關鍵的參數:

Cache size:22MB

Cache line :64 字節

具體參數如下圖所示:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

cpuinfo

編譯

使用GCC編譯,使用默認優化級別。如下圖所示:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

編譯

運行

用time命令測量一下兩個程序性能差異。運行結果如下圖:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

運行結果

結果

從測試結果看,第一個程序運行花費0.265秒,第二個花費1.998秒。第二個程序消耗的時間居然是第一個程序的7.5倍!

這是為什么呢?當然是因為Cache!后面進行解釋。

我們再來看一個多線程的例子。

實例二 多線程訪問數據結構的不同字段

這個例子中,我們定義個全局結構體變量 data,然后創建兩個線程,分別訪問data的兩個字段data.a和data.b。

兩個程序的線程實現代碼如下:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

thread1.c(左) 和 thread2.c(右)

main()函數很簡單,只是創建兩個線程:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

main()函數

兩個例子中唯一的不同之處是:

  • 第一個程序中,字段a和字段b是緊挨着的
  • 第二個程序中,字段a和字段b中間有一個大小為64個字節的字符數組。

測試環境和第一個例子一樣。

編譯

創建線程使用到了pthread庫,因此編譯時需要加上 -lpthread。

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

編譯

運行

同樣使用time命令測量兩個程序的執行時間,結果如下圖所示:

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

執行結果

結果

從測試結果看,第一個程序消耗的時間是第二個程序的3倍!

這又是為什么?仍然是Cache!

在解釋具體原因之前,先簡單介紹一些關於計算機存儲的基礎知識。

存儲金字塔

“存儲金字塔”這個詞,大家應該都不陌生吧,它指的是現代計算機系統的分級存儲器體系結構。

簡單來說,就是離CPU越近的存儲器訪問速度越快,但是生產成本越高,因此容量就越小。而離CPU越遠的存儲器訪問越慢,但是成本越低,因此容量就越大。

它看起來就像一個金字塔一樣,這就是“存儲金字塔”這個詞的由來。

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

存儲金字塔

最頂端,離CPU最近的是寄存器,它的訪問速度最快,容量也最小,現代的CPU一般最多只有幾十個內置寄存器。

最底端,離CPU最遠的是網絡存儲設備,既然要通過網絡進行訪問,可想而知,它的速度肯定是最慢的,但是容量卻幾乎不受限制。尤其隨着近年來雲計算的蓬勃發展,我們的很多數據都是存儲在雲端,分布在世界各地。

我們可以簡單的認為,高一級的存儲器是低一級存儲器的緩存。也就是把低一級層存儲器中最經常被訪問的數據,存放在高一層的存儲器中,因為它離CPU更近,訪問速度更快。CPU每次訪問數據時,首先在高一級存儲器中查找,如果數據存在,就可以直接訪問,否則需要到低一級的存儲器中去查找。

這種金字塔式的存儲結構之所以能夠很好的工作,得益於計算機程序的局部性原理

局部性原理

一個設計優良的計算機程序通常具有很好的局部性,包括時間局部性和空間局部性

  • 時間局部性:如果一個數據被訪問過一次,那么很有可能它會在很短的時間內再次被訪問。
  • 空間局部性:如果一個數據被訪問了,那么很有可能位於這個數據附近的其它數據也會很快被訪問到。

一般來說,具有良好局部性的程序會比局部性較差的程序運行的更快,程序性能更好。

數組就是一種把局部性原理利用到極致的數據結構,后面會詳細說明。

高速緩存存儲器 - Cache

我們知道,程序在執行之前,必須要先加載到內存(DRAM主存儲器)中,然后數據和指令才能被CPU訪問。

但是,由於CPU和內存訪問速度之間存在着幾個數量級的巨大的差距,如果CPU每次都要從內存中去讀取數據的,就會導致大量的計算資源閑置,這對現代CPU是不可接受的。

為了解決這個問題,在CPU和內存之間設計了高速緩存存儲器,即Cache。

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

現代的CPU一般都有三級或者更多級的Cache,離CPU最近的是L1Cache(一級緩存),然后是L2 Cache、L3 Cache。L1 Cache的訪問速度幾乎和寄存器一樣快,容量也最小, L3速度最慢,但容量最大。

這樣一來,CPU在讀取數據時,就會先逐級在Cache中查找,如果找到就直接從Cache讀取,找不到則從內存中讀取

在Cache中找到所需的數據被稱為命中(Cache hit),找不到則稱為未命中(Cache miss)

Cache miss的時候,CPU就不得不直接從內存中訪問數據,會面臨嚴重的performance懲罰。因此Cache miss率比較高的程序,performance會比較差。

Cache Line

Cache Line 可以理解為是 Cache和內存之間進行數據傳輸的最小單位。

很多現代CPU的Cache line大小是64個字節,我所用的測試環境Cache Line大小就是64個字節。也就是說每次數據在Cache和內存之間傳輸,並不是一個字節一個字節進行傳輸的,而是以Cache Line為單位進行傳輸的。

比如下面這個數組:

int a[3][4] = {{1, 2, 3, 4}, {5, 6, 7, 8}, {9, 10, 11, 12}};

假設數組a的的起始地址在內存中是Cache Line對齊的(簡單理解就是數組a的起始地址能被64整除),假如我們執行下面的代碼:

int k = a[0][0];

在x86機器上,int是4個字節,在把a[0][0]賦值給k時,會把一個Cache line大小的數據從內存加載到Cache中,64/4 = 16個int,也就是說整個數組都被加載進了Cache中。如果接下來一條指令繼續訪問數組a的某個元素的話,就可以直接訪問Cache的內容。

Cache 一致性

在多CPU的系統中,每個CPU都有自己的本地Cache。因此,同一個地址的數據,有可能在多個CPU的本地 Cache 里存在多份拷貝。

為了保證程序執行的正確性,就必須保證同一個變量,每個CPU看到的值都是一樣的。也就是說,必須要保證每個CPU的本地Cache中能夠如實反映內存中的真實數據。

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

假設一個變量在CPU0和CPU1的本地Cache中都有一份拷貝,當CPU0修改了這個變量時,就必須以某種方式通知CPU1,以便CPU1能夠及時更新自己本地Cache中的拷貝,這樣才能在兩個CPU之間保持數據的同步。

注:現代CPU為了保證Cache一致性,都實現了非常復雜的Cache一致性協議,如MESI等。篇幅有限,這里不再贅述,以后會更新專門的文章進行講解,有興趣的童鞋不妨關注一下。

需要注意的是,CPU之間的這種同步,是有很大開銷的。這其實也是案例二的主要原因,后面會進行說明。

了解存儲金字塔和Cache的背景知識后,現在我們分析一下前面的兩個案例。

案例一原因分析

案例一中,兩個程序都是對一個同樣大小的數組逐個元素進行賦值。唯一的區別是:

  • 第一個程序對數組按行進行賦值
  • 第二個程序對數組按列進行賦值

為什么程序運行效率差距竟有7倍之大呢?

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

我們知道,數組元素存儲在地址連續的內存中,多維數組在內存中是按行進行存儲的

第一個程序按行訪問某個元素時,該元素附近的一個Cache Line大小的元素都會被加載到Cache中,這樣一來,在訪問緊挨着的下一個元素時,就可以直接訪問Cache中的數據,不需要再從內存中加載數據。也就是說,對數組按行進行訪問時,具有更好的空間局部性, Cache命中率更高

第二個程序按列訪問某個元素時,雖然該元素附近的一個Cache Line大小的元素也會被加載進Cache中,但是程序接下來要訪問的數據卻不是緊挨着的那個元素,因此很有可能會再次產生Cache miss,而不得不從內存中加載數據。

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

而且,雖然Cache中會盡量保存最近訪問過的數據,但由於Cache大小有限,當Cache被占滿時,就不得不把一些數據給替換掉。這也是空間局部性差的程序更容易產生Cache miss的重要原因之一。

案例二原因分析

案例二中,兩個程序都有兩個線程,每個線程分別訪問一個結構體變量的不同字段。唯一的區別是,

  • 第一個程序中,字段a和字段b是緊挨着的。
  • 第二個程序中,字段a和字段b中間有一個大小為64個字節的字符數組。

這其實涉及到Cache Line的偽共享(false sharing)問題。

Cache Line偽共享

所謂Cache Line 偽共享,是由於運行在不同CPU上的不同線程,同時修改處在同一個Cache Line上的數據引起的。

雖然在每個CPU看來,各自修改的是不同的變量,但是由於這些變量在內存中彼此緊挨着的,因此它們處於同一個Cache Line上。一個CPU修改這個Cache Line之后,為了保證Cache數據的一致性,必然導致另一個CPU的本地Cache的無效,因而觸發Cache miss,然后從內存中重新加載變量被修改后的值。

多個線程頻繁的修改處於同一個Cache Line的數據,會導致大量的Cache miss,因而造成程序性能大幅下降。

原因分析

C語言修改一行代碼,運行效率居然提升數倍,這個技巧你知道嗎

第一個程序中,字段a和字段b處於同一個Cache Line上,當兩個線程同時修改這兩個字段時,會觸發Cache Line偽共享問題,造成大量的Cache miss,進而導致程序性能下降。

第二個程序中,字段a和b中間加了一個64字節的數組,這樣就保證了這兩個字段處在不同的Cache Line上。如此一來,兩個線程即便同時修改這兩個字段,兩個cache line也互不影響,cache命中率很高,程序性能會大幅提升。

結語

除了上述的兩個案例之外,在系統中CPU Cache對程序性能的影響隨處可見


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM