1 理解Linux系統的“平均負載”


什么是平均負載

  我們知道使用top或uptime可以用來了解系統的負載情況。

uptime
2 02:34:03 up 2 days, 20:14,    1 user, load average: 0.63, 0.83, 0.88
​
02:34:03    // 當前時間
2up 2 days, 20:14   // 系統運行時間
31 user // 正在登錄用戶數
而最后三個數字,依次則是過去 1 分鍾、5 分鍾、15 分鍾的平均負載

  平均負載是指單位時間內,系統處於可運行狀態和不可中斷狀態的平均進程數,也就是平均活躍進程數,它和 CPU 使用率並沒有直接關系。

所謂可運行狀態的進程,是指正在使用 CPU 或者正在等待 CPU 的進程,也就是我們常用ps 命令看到的,處於 R 狀態(Running 或 Runnable)的進程。

不可中斷狀態的進程則是正處於內核態關鍵流程中的進程,並且這些流程是不可打斷的, 比如最常見的是等待硬件設備的 I/O 響應,也就是我們在 ps 命令中看到的 D 狀態(Uninterruptible Sleep,也稱為 Disk Sleep)的進程。

  比如,當一個進程向磁盤讀寫數據時,為了保證數據的一致性,在得到磁盤回復前,它是不能被其他進程或者中斷打斷的,這個時候的進程就處於不可中斷狀態。如果此時的進程被打斷了,就容易出現磁盤數據與進程數據不一致的問題。所以,不可中斷狀態實際上是系統對進程和硬件設備的一種保護機制。

  因此,可以簡單理解為,平均負載其實就是平均活躍進程數。平均活躍進程數,直觀上的理解就是單位時間內的活躍進程數,但它實際上是活躍進程數的指數衰減平均值。這 個“指數衰減平均”的詳細含義你不用計較,這只是系統的一種更快速的計算方式,你把它直接當成活躍進程數的平均值也沒問題。

  既然平均的是活躍進程數,那么最理想的,就是每個 CPU 上都剛好運行着一個進程,這樣每個 CPU 都得到了充分利用。

  比如當平均負載為 2 時,意味着什么呢?

    在只有 2 個 CPU 的系統上,意味着所有的 CPU 都剛好被完全占用。

    在 4 個 CPU 的系統上,意味着 CPU 有 50% 的空閑。  

    而在只有 1 個 CPU 的系統中,則意味着有一半的進程競爭不到 CPU。

平均負載為多少時合理

平均負載最理想的情況是等於 CPU 個數。所以在評判平均負載時,首先你要知道系統有幾個 CPU,這可以通過 top 命令或者從文件 /proc/cpuinfo 中讀取

[root@web-01 ~]# grep 'model name' /proc/cpuinfo
model name : Intel(R) Core(TM) i5-8250U CPU @ 1.60GHz
model name : Intel(R) Core(TM) i5-8250U CPU @ 1.60GHz

有了 CPU 個數,我們就可以判斷出,當平均負載比 CPU 個數還大的時候,系統已經出現了過載。

  三個不同時間間隔的平均值,其實給我們提供了,分析系統負載趨勢的數據來源,讓我們能更全面、更立體地理解目前的負載狀況。

  如果 1 分鍾、5 分鍾、15 分鍾的三個值基本相同,或者相差不大,那就說明系統負載很平穩。

  但如果 1 分鍾的值遠小於 15 分鍾的值,就說明系統最近 1 分鍾的負載在減少,而過去15 分鍾內卻有很大的負載。

反過來,如果 1 分鍾的值遠大於 15 分鍾的值,就說明最近 1 分鍾的負載在增加,這種增加有可能只是臨時性的,也有可能還會持續增加下去,所以就需要持續觀察。一旦 1 分鍾的平均負載接近或超過了 CPU 的個數,就意味着系統正在發生過載的問題,這時就得分析調查是哪里導致的問題,並要想辦法優化了。

  這里再舉個例子,假設我們在一個單 CPU 系統上看到平均負載為 1.73,0.60,7.98, 那么說明在過去 1 分鍾內,系統有 73% 的超載,而在 15 分鍾內,有 698% 的超載,從整體趨勢來看,系統的負載在降低。

  那么,在實際生產環境中,平均負載多高時,需要我們重點關注呢?

  一般,當平均負載高於 CPU 數量 70% 的時候,你就應該分析排查負載高的問題了。一旦負載過高,就可能導致進程響應變慢,進而影響服務的正常功能。

但 70% 這個數字並不是絕對的,最推薦的方法,還是把系統的平均負載監控起來,然后根據更多的歷史數據,判斷負載的變化趨勢。當發現負載有明顯升高趨勢時,比如說負載翻倍了,再去做分析和調查。

平均負載與 CPU 使用率

  既然平均負載代表的是活躍進程數,那平均負載高了,不就意味着 CPU 使用率高嗎?

  平均負載是指單位時間內,處於可運行狀態和不可中斷狀態的進程數。所以,它不僅包括了正在使用 CPU 的進程,還包括等待 CPU 和等待I/O 的進程。

  而 CPU 使用率,是單位時間內 CPU 繁忙情況的統計,跟平均負載並不一定完全對應。比如:

    CPU 密集型進程,使用大量 CPU 會導致平均負載升高,此時這兩者是一致的;

    I/O 密集型進程,等待 I/O 也會導致平均負載升高,但 CPU 使用率不一定很高;

    大量等待 CPU 的進程調度也會導致平均負載升高,此時的 CPU 使用率也會比較高。

平均負載案例分析

  下面,我們以三個示例分別來看這三種情況,並用 iostat、mpstat、pidstat 等工具,找出平均負載升高的根源。
  stress 是一個 Linux 系統壓力測試工具,這里我們用作異常進程模擬平均負載升高的場景。

  而 sysstat 包含了常用的 Linux 性能工具,用來監控和分析系統的性能。我們的案例會用到這個包的兩個命令 mpstat 和 pidstat。

安裝sysstat
wget http://pagesperso-orange.fr/sebastien.godard/sysstat-12.1.5-1.x86_64.rpm
yum localinstall sysstat-12.1.5-1.x86_64.rpm -y

    mpstat 是一個常用的多核 CPU 性能分析工具,用來實時查看每個 CPU 的性能指標, 以及所有 CPU 的平均指標。
    pidstat 是一個常用的進程性能分析工具,用來實時查看進程的 CPU、內存、I/O 以及上下文切換等性能指標。

場景一:CPU 密集型進程

#在第一個終端運行 stress 命令,模擬一個 CPU 使用率 100% 的場景
[root@doit ~]# stress --cpu 1  --timeout 600
stress: info: [25975] dispatching hogs: 1 cpu, 0 io, 0 vm, 0 hdd

[root@doit ~]# watch -d uptime

Every 2.0s: uptime                                                       Thu Jul 11 17:34:31 2019

 17:34:31 up 33 days,  3:47,  6 users,  load average: 0.80, 0.66, 0.66
#1 分鍾的平均負載會慢慢增加到 1.00,而從終端三中還可以看到,

[root@doit ~]# mpstat -P ALL 5
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
05:33:34 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
05:33:39 PM  all   50.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00   49.80
05:33:39 PM    0  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00
05:33:39 PM    1    0.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00   99.80

#正好有一個 CPU 的使用率為 100%,但它的 iowait 只有 0。這說明,平均負載的升高正是由於 CPU 使用率為 100% 。

[root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
05:35:13 PM   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
05:35:18 PM    27      3769    0.00    0.20    0.00    0.00    0.20     0  mysqld
05:35:18 PM     0     25976   99.80    0.00    0.00    0.00   99.80     0  stress
05:35:18 PM     0     26115    0.00    0.20    0.00    0.00    0.20     1  pidstat
#從這里可以明顯看到,stress 進程的 CPU 使用率為 100%。

場景二:I/O 密集型進程

[root@doit ~]# stress -i 1 --timeout 600
stress: info: [23627] dispatching hogs: 0 cpu, 1 io, 0 vm, 0 hdd

[root@doit ~]# watch -d uptime
Every 2.0s: uptime                                                       Thu Jul 11 15:50:57 2019
 15:50:57 up 33 days,  2:04,  8 users,  load average: 1.39, 1.09, 1.00

[root@doit ~]# mpstat -P ALL 5
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
03:51:20 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
03:51:25 PM  all    0.42    0.00    8.60   25.18    0.00    0.10    0.00    0.00    0.00   65.69
03:51:25 PM    0    0.65    0.00   10.85   51.84    0.00    0.22    0.00    0.00    0.00   36.44
03:51:25 PM    1    0.20    0.00    6.50    0.20    0.00    0.00    0.00    0.00    0.00   93.09
# 平均負載的升高是由於 iowait 的升高。


# 哪個進程,導致 iowait 這么高呢?我們還是用 pidstat 來查詢:
[root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
03:51:44 PM   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
03:51:49 PM     0        10    0.00    0.20    0.00    0.20    0.20     1  rcu_sched
03:51:49 PM     0      1553    0.00    2.79    0.00    0.00    2.79     1  kworker/1:1H-kblockd
03:51:49 PM     0      1667    0.00    4.19    0.00    0.00    4.19     0  kworker/0:1H-kblockd
03:51:49 PM     0      3086    0.00    0.20    0.00    1.00    0.20     0  haveged
03:51:49 PM     0     24186    0.00    0.20    0.00    0.00    0.20     1  watch
03:51:49 PM     0     24369    0.40   18.16    0.00    8.18   18.56     1  stress
03:51:49 PM     0     24512    0.00    0.20    0.00    0.00    0.20     0  pidstat
# 可以發現,還是 stress 進程導致的。

[root@doit ~]# pidstat -d 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
05:06:14 PM   UID       PID   kB_rd/s   kB_wr/s kB_ccwr/s iodelay  Command
05:06:19 PM     0     25318      0.00      0.00      0.00     347  stress

場景三:大量進程的場景

當系統中運行進程超出 CPU 運行能力時,就會出現等待 CPU 的進程。比如,我們還是使用 stress,但這次模擬的是 8 個進程:
[root@doit ~]# stress -c 8 --timeout 600
stress: info: [25324] dispatching hogs: 8 cpu, 0 io, 0 vm, 0 hdd

[root@doit ~]# watch -d uptime
Every 2.0s: uptime                                                       Thu Jul 11 17:24:24 2019
 17:24:24 up 33 days,  3:37,  6 users,  load average: 6.12, 2.83, 1.08
# 由於系統只有 2 個 CPU,明顯比 8 個進程要少得多,因而,系統的 CPU 處於嚴重過載狀態


接着再運行 pidstat 來看一下進程的情況:
[root@doit ~]# pidstat -u 5 1
Linux 4.20.0-1.el7.elrepo.x86_64 (doit)     07/11/2019  _x86_64_    (2 CPU)
05:22:26 PM   UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
05:22:31 PM     0      3104    0.00    0.20    0.00    1.00    0.20     1  qemu-ga
05:22:31 PM    27      3769    0.00    0.20    0.00    0.00    0.20     0  mysqld
05:22:31 PM     0     25325   24.95    0.00    0.00   75.45   24.95     1  stress
05:22:31 PM     0     25326   24.75    0.00    0.00   74.65   24.75     1  stress
05:22:31 PM     0     25327   24.95    0.00    0.00   75.45   24.95     1  stress
05:22:31 PM     0     25328   24.75    0.00    0.00   74.65   24.75     0  stress
05:22:31 PM     0     25329   24.95    0.00    0.00   74.65   24.95     1  stress
05:22:31 PM     0     25330   24.95    0.00    0.00   74.65   24.95     0  stress
05:22:31 PM     0     25331   25.15    0.00    0.00   75.05   25.15     0  stress
05:22:31 PM     0     25332   24.95    0.00    0.00   74.85   24.95     0  stress
05:22:31 PM     0     25345    0.00    0.20    0.00    0.00    0.20     1  pidstat

可以看出,8 個進程在爭搶 2 個 CPU,每個進程等待 CPU 的時間(也就是代碼塊中的%wait 列)高達 75%。這些超出 CPU 計算能力的進程,最終導致 CPU 過載。

小結

  分析完這三個案例,我再來歸納一下平均負載的理解。

  平均負載提供了一個快速查看系統整體性能的手段,反映了整體的負載情況。但只看平均負載本身,我們並不能直接發現,到底是哪里出現了瓶頸。所以,在理解平均負載時,也要注意:

  平均負載高有可能是 CPU 密集型進程導致的;
  平均負載高並不一定代表 CPU 使用率高,還有可能是 I/O 更繁忙了;
  當發現負載高的時候,你可以使用 mpstat、pidstat 等工具,輔助分析負載的來源。

其他:

  1.現在大多數CPU有超線程能力,在計算和評估平均負載的時候,CPU的核數是指物理核數,應該是超線程功能的邏輯核數。

  2.用htop看負載,因為它更直接(在F2配置中勾選所有開關項,打開顏色區分功能),不同的負載會用不同的顏色標識。比如cpu密集型的應用,它的負載顏色是綠色偏高,iowait的操作,它的負載顏色是紅色偏高等等,根據這些指標再用htop的sort就很容易定位到有問題的進程。還有個更好用的atop命令,好像是基於sar的統計生成的報告,直接就把有問題的進程標紅了,更直觀。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM