Linux性能優化-平均負載



當系統變得卡頓時,我們通常會通過 top或者 uptime命令來了解系統負載情況。

$ uptime
19:47:30 up  6:00,  1 user,  load average: 0.00, 0.01, 0.05

前3列分別是當前時間、系統運行的時間以及正在登錄的用戶數

19:47:30      //當前時間
up  6:00      //系統運行時間
1 user        //正在登錄用戶數

load average(平均負載)一詞代表的是過去1分鍾、5分鍾、15分鍾的平均負載。

平均負載的含義

簡單來說,平均負載是指單位時間內,系統處於可運行狀態不可中斷狀態的平均進程數,也就是平均活躍進程數,它和CPU使用率並沒有直接關系。可以通過執行 man uptime 命令,來了解平均負載的詳細解釋。

  • 可運行狀態:正在使用CPU或者正在等待CPU的進程,也就是我們ps命令看到的,處於R狀態(Running或Runnable)的進程。
  • 不可中斷狀態:正處於內核態關鍵流程中的進程,並且這些流程是不可打斷的,比如常見的等待硬件設備的I/O響應,也就是我們在ps命令中看到的D狀態(Uninterruptible Sleep,也稱為Disk Sleep)的進程。比如,當一個進程向磁盤寫數據時,為了保證數據的一致性,在得到磁盤回復前,它是不能被其他進程中斷打斷的,這個時候的進程就處於不可中斷狀態。如果此時的進程被打斷,就容易出現磁盤數據與進程數據不一致的問題。

不可中斷狀態實際上是系統對進程和硬件設備的一種保護機制。

因此,你可以簡單理解為,平均負載其實就是平均活躍進程數。平均活躍進程數,直觀上的理解就是單位時間內的活躍進程數,但它實際上是活躍進程數的指數衰減平均值。這個“指數衰減平均”的詳細含義你不用計較,這只是系統的一種更快速的計算方式,你把它直接當成活躍進程數的平均值也沒問題。

平均負載為多少時合理

既然平均的是活躍進程數,那么最理想的,就是每個 CPU 上都剛好運行着一個進程,這樣每個 CPU 都得到了充分利用。比如當平均負載為 2 時,意味着什么呢?

  • 在只有 2 個 CPU 的系統上,意味着所有的 CPU 都剛好被完全占用。
  • 在 4 個 CPU 的系統上,意味着 CPU 有 50% 的空閑。
  • 而在只有 1 個 CPU 的系統中,則意味着有一半的進程競爭不到 CPU。

那現在我們知道平均負載最理想的情況是等於CPU個數,我們可以通過top命令或者文件/proc/cpuinfo中讀取

$ top  #執行top命令后按數字1
top - 20:23:01 up  6:35,  1 user,  load average: 0.02, 0.05, 0.05
Tasks: 161 total,   1 running, 160 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  :  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem : 14109492 total, 12420040 free,   655876 used,  1033576 buff/cache
KiB Swap:  4063228 total,  4063228 free,        0 used. 11336992 avail Mem 

$ grep 'model name' /proc/cpuinfo | wc -l

有了CPU個數,我們就可以判斷出,當平均負載比CPU個數還大的時候,系統已經出現了過載。

關於平均負載的三個數值,可以讓我們更全面、更立體地理解當前的負載狀況。
當平均負載高於 CPU 數量 70% 的時候,就應該分析排查負載高的問題了。一旦負載過高,就可能導致進程響應變慢,進而影響服務的正常功能。
但 70% 這個數字並不是絕對的,最推薦的方法,還是把系統的平均負載監控起來,然后根據更多的歷史數據,判斷負載的變化趨勢。當發現負載有明顯升高趨勢時,比如說負載翻倍了,你再去做分析和調查。

平均負載與 CPU 使用率

我們還是要回到平均負載的含義上來,平均負載是指單位時間內,處於可運行狀態和不可中斷狀態的進程數。所以,它不僅包括了正在使用 CPU 的進程,還包括等待 CPU等待 I/O 的進程。

cpu使用率,是單位時間內 CPU 繁忙情況的統計,跟平均負載並一定完全對應。比如:
CPU 密集型進程,使用大量 CPU 會導致平均負載升高,此時這兩者是一致的;
I/O 密集型進程,等待 I/O 也會導致平均負載升高,但 CPU 使用率不一定很高;
大量等待 CPU 的進程調度也會導致平均負載升高,此時的 CPU 使用率也會比較高。

平均負載案例分析

三個示例分別來看這三種情況,並用 iostat、mpstat、pidstat 等工具,找出平均負載升高的根源。

機器配置:2 CPU,8GB 內存。
預先安裝 stress 和 sysstat 包,如 apt install stress sysstat。

stress 是一個 Linux 系統壓力測試工具,這里我們用作異常進程模擬平均負載升高的場景。

而 sysstat 包含了常用的 Linux 性能工具,用來監控和分析系統的性能。我們的案例會用到這個包的兩個命令 mpstat 和 pidstat。

  • mpstat 是一個常用的多核 CPU 性能分析工具,用來實時查看每個 CPU 的性能指標,以及所有 CPU 的平均指標。
  • pidstat 是一個常用的進程性能分析工具,用來實時查看進程的 CPU、內存、I/O 以及上下文切換等性能指標。

Ubuntu:
$ apt install stress sysstat -y

CentOS:
安裝stress

$ yum install epel-release -y
$ yum install stree

安裝sysstat
yum默認安裝的版本較老(10.1.5),pidstat輸出不顯示%wait,11.5.5版本以后輸出中才會有,所以這里使用源碼安裝最新版本的sysstat

$ yum install gcc git -y
$ git clone https://gitee.com/mirrors/sysstat.git
$ cd sysstat
$ ./configure --disable-nls --prefix=/usr/local/
$ make && make install

場景一:CPU 密集型進程

首先在第一個終端運行 stress 命令,模擬一個 CPU 使用率 100% 的場景:

$ stress --cpu 1 --timeout 600

接着在第二個中斷運行uptime查看平均負載的變化情況:

# -d 參數表示高亮顯示變化的區域
$ watch -d uptime
...,  load average: 1.00, 0.78, 0.53

最后在第三個終端運行mpstat查看CPU使用率的變化情況:

# 顯示所有CPU的指標,並在間隔5秒輸出一組數據
$ mpstat -P ALL 5 1
23:07:22     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
23:07:27     all   10.00    0.00    0.04    0.00    0.00    0.00    0.00    0.00    0.00   89.96
23:07:27       0    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
23:07:27       1    0.00    0.00    0.20    0.00    0.00    0.00    0.00    0.00    0.00   99.80
23:07:27       2    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
23:07:27       3  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00

從終端二中可以看到,1 分鍾的平均負載會慢慢增加到 1.00,而從終端三中還可以看到,正好有一個 CPU 的使用率為 100%,但它的 iowait 只有 0。這說明,平均負載的升高正是由於 CPU 使用率為 100% 。

那么到底是哪個進程導致了 CPU 使用率為 100% 呢?現在就使用pidstat來查詢:

# 間隔5秒后輸出一組數據
$ pidstat -u 5 1
23:18:51      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
23:18:56        0       445    0.00    0.20    0.00    0.00    0.20     8  kworker/8:2
23:18:56        0      1025    0.00    0.60    0.00    0.00    0.60     2  containerd
23:18:56        0     14170   92.42    0.00    0.00    0.00   92.42     0  stress
23:18:56        0     14595    0.00    0.20    0.00    0.00    0.20     9  pidstat

現在可以看到是stress進程的 CPU 使用率為接近 100%。

場景二:I/O 密集型進程

還是運行stess命令,模擬 I/O 壓力,即不停地執行 sync:
iowait無法升高的問題,是因為案例中stress使用的是 sync() 系統調用,它的作用是刷新緩沖區內存到磁盤中。對於新安裝的虛擬機,緩沖區可能比較小,無法產生大的IO壓力,這樣大部分就都是系統調用的消耗了。所以,你會看到只有系統CPU使用率升高。解決方法是使用stress的下一代stress-ng,它支持更豐富的選項,比如 stress-ng -i 1 --hdd 1 --timeout 600(--hdd表示讀寫臨時文件)。

$ stress -i 1 --timeout 600

第二個終端運行uptime查看平均負載的變化情況:

$ watch -d uptime
...,  load average: 1.06, 0.58, 0.37

第三個終端運行 mpstat 查看 CPU 使用率的變化情況:

# 顯示所有CPU的指標,並在間隔5秒輸出一組數據
$ mpstat -P ALL 5 1
13:41:28     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
13:41:33     all    0.21    0.00   12.07   32.67    0.00    0.21    0.00    0.00    0.00   54.84
13:41:33       0    0.43    0.00   23.87   67.53    0.00    0.43    0.00    0.00    0.00    7.74
13:41:33       1    0.00    0.00    0.81    0.20    0.00    0.00    0.00    0.00    0.00   98.99

從這里可以看到,1 分鍾的平均負載會慢慢增加到 1.06,其中一個 CPU 的系統 CPU 使用率升高到了 23.87,而 iowait 高達 67.53%。這說明,平均負載的升高是由於 iowait 的升高。

那么到底是哪個進程,導致 iowait 這么高呢?我們還是用 pidstat 來查詢:

# 間隔5秒后輸出一組數據,-u表示CPU指標
$ pidstat -u 5 1
Linux 4.15.0 (ubuntu)     09/22/18     _x86_64_    (2 CPU)
13:42:08      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:42:13        0       104    0.00    3.39    0.00    0.00    3.39     1  kworker/1:1H
13:42:13        0       109    0.00    0.40    0.00    0.00    0.40     0  kworker/0:1H
13:42:13        0      2997    2.00   35.53    0.00    3.99   37.52     1  stress
13:42:13        0      3057    0.00    0.40    0.00    0.00    0.40     0  pidstat

可以發現,還是 stress 進程導致的。

場景三:大量進程的場景

當系統運行程序超出 CPU 運行能力時,就會出現等待 CPU 的進程。
比如,我們還是使用 stress,但這次模擬的是 8 個進程:

$ stress -c 8 --timeout 600

由於系統只有 2 個 CPU,明顯比 8 個進程要少得多,因而,系統的 CPU 處於嚴重過載狀態,平均負載高達 7.97:

$ uptime
..., load average: 7.97, 5.93, 3.02

接着再運行 pidstat 來看一下進程的情況:

# 間隔5秒后輸出一組數據
$ pidstat -u 5 1
14:23:25      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
14:23:30        0      3190   25.00    0.00    0.00   74.80   25.00     0  stress
14:23:30        0      3191   25.00    0.00    0.00   75.20   25.00     0  stress
14:23:30        0      3192   25.00    0.00    0.00   74.80   25.00     1  stress
14:23:30        0      3193   25.00    0.00    0.00   75.00   25.00     1  stress
14:23:30        0      3194   24.80    0.00    0.00   74.60   24.80     0  stress
14:23:30        0      3195   24.80    0.00    0.00   75.00   24.80     0  stress
14:23:30        0      3196   24.80    0.00    0.00   74.60   24.80     1  stress
14:23:30        0      3197   24.80    0.00    0.00   74.80   24.80     1  stress
14:23:30        0      3200    0.00    0.20    0.00    0.20    0.20     0  pidstat

可以看出,8 個進程在爭搶 2 個 CPU,每個進程等待 CPU 的時間(也就是代碼塊中的 %wait 列)高達 75%。這些超出 CPU 計算能力的進程,最終導致 CPU 過載。

小結

分析完這三個案例,來歸納一下平均負載的理解。平均負載提供了一個快速查看系統整體性能的手段,反映了整體的負載情況。但只看平均負載本身,我們並不能直接發現,到底是哪里出現了瓶頸。所以,在理解平均負載時,也要注意:

  • 平均負載高有可能是 CPU 密集型進程導致的;
  • 平均負載高並不一定代表 CPU 使用率高,還有可能是 I/O 更繁忙了;
  • 當發現負載高的時候,你可以使用 mpstat、pidstat 等工具,輔助分析負載的來源。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM