怎么理解“平均負載”? 進行分析等


每次發現系統變慢時,我們通常做的第一件事,就是執行 top 或者 uptime 命令,來了解系統的負載情況。比如像下面這樣,我在命令行里輸入了 uptime 命令,系統也隨即給出了結果。

[root@localhost ~]# uptime
15:34:11 up 140 days, 1:23, 6 users, load average: 0.03, 0.09, 2.75

以上命令說明

02:34:03              // 當前時間
up 2 days, 20:14      // 系統運行時間
1 user                // 正在登錄用戶數
load average: 0.03, 0.09, 2.75
而最后三個數字呢,依次則是過去 1 分鍾、5 分鍾、15 分鍾的平均負載(Load Average)。

如何觀測和理解這個最常見、也是最重要的系統指標。

一:什么是平均負載

 簡單來說,平均負載是指單位時間內,系統處於可運行狀態不可中斷狀態的平均進程數,也就是平均活躍進程數,它和 CPU 使用率並沒有直接關系。這里我先解釋下,可運行狀態和不可中斷狀態這倆詞兒。

二:可運行狀態

所謂可運行狀態的進程,是指正在使用 CPU 或者正在等待 CPU 的進程,也就是我們常用 ps 命令看到的,處於 R 狀態(Running 或 Runnable)的進程

二:不可中斷狀態

不可中斷狀態的進程則是正處於內核態關鍵流程中的進程,並且這些流程是不可打斷的,比如最常見的是等待硬件設備的 I/O 響應,也就是我們在 ps 命令中看到的 D 狀態(Uninterruptible Sleep,也稱為 Disk Sleep)的進程。

舉個例子:

比如,當一個進程向磁盤讀寫數據時,為了保證數據的一致性,在得到磁盤回復前,它是不能被其他進程或者中斷打斷的,這個時候的進程就處於不可中斷狀態。如果此時的進程被打斷了,就容易出現磁盤數據與進程數據不一致的問題。

所以,不可中斷狀態實際上是系統對進程和硬件設備的一種保護機制

因此,你可以簡單理解為,平均負載其實就是平均活躍進程數。平均活躍進程數,直觀上的理解就是單位時間內的活躍進程數,但它實際上是活躍進程數的指數衰減平均值。這個“指數衰減平均”的詳細含義你不用計較,這只是系統的一種更快速的計算方式,你把它直接當成活躍進程數的平均值也沒問題。

 既然平均的是活躍進程數,那么最理想的,就是每個 CPU 上都剛好運行着一個進程,這樣每個 CPU 都得到了充分利用。

比如當平均負載為 2 時,意味着什么呢?

  • 在只有 2 個 CPU 的系統上,意味着所有的 CPU 都剛好被完全占用。
  • 在 4 個 CPU 的系統上,意味着 CPU 有 50% 的空閑。
  • 而在只有 1 個 CPU 的系統中,則意味着有一半的進程競爭不到 CPU

 

平均負載為多少時合理

講完了什么是平均負載,現在我們再回到最開始的例子,不知道你能否判斷出,在 uptime 命令的結果里,那三個時間段的平均負載數,多大的時候能說明系統負載高?或是多小的時候就能說明系統負載很低呢?

我們知道,平均負載最理想的情況是等於 CPU 個數。所以在評判平均負載時,首先你要知道系統有幾個 CPU,這可以通過 top 命令或者從文件 /proc/cpuinfo 中讀取,比如:

[root@localhost ~]# lscpu  |grep "^CPU(s):.*"
CPU(s):                32
[root@localhost ~]# grep 'model name' /proc/cpuinfo  | wc -l
32

有了 CPU 個數,我們就可以判斷出,當平均負載比 CPU 個數還大的時候,系統已經出現了過載。 

不過,且慢,新的問題又來了。我們在例子中可以看到,平均負載有三個數值,到底該參考哪一個呢? 

實際上,都要看。三個不同時間間隔的平均值,其實給我們提供了,分析系統負載趨勢,的數據來源,讓我們能更全面、更立體地理解目前的負載狀況。

舉個例子:

打個比方,就像初秋時北京的天氣,如果只看中午的溫度,你可能以為還在 7 月份的大夏天呢。但如果你結合了早上、中午、晚上三個時間點的溫度來看,基本就可以全方位了解這一天的天氣情況了。

同樣的,前面說到的 CPU 的三個負載時間段也是這個道理。

  • 如果 1 分鍾、5 分鍾、15 分鍾的三個值基本相同,或者相差不大,那就說明系統負載很平穩。
  • 但如果 1 分鍾的值遠小於 15 分鍾的值,就說明系統最近 1 分鍾的負載在減少,而過去 15 分鍾內卻有很大的負載。
  • 反過來,如果 1 分鍾的值遠大於 15 分鍾的值,就說明最近 1 分鍾的負載在增加,這種增加有可能只是臨時性的,也有可能還會持續增加下去,所以就需要持續觀察。一旦 1 分鍾的平均負載接近或超過了 CPU 的個數,就意味着系統正在發生過載的問題,這時就得分析調查是哪里導致的問題,並要想辦法優化了。

這里我再舉個例子,假設我們在一個單 CPU 系統上看到平均負載為 1.73,0.60,7.98,那么說明在過去 1 分鍾內,系統有 73% 的超載,而在 15 分鍾內,有 698 % 的超載,從整體趨勢來看,系統的負載在降低。

那么,在實際生產環境中,平均負載多高時,需要我們重點關注呢?

當平均負載高於 CPU 數量 70% 的時候,,你就應該分析排查負載高的問題了。一旦負載過高,就可能導致進程響應變慢,進而影響服務的正常功能。

但 70% 這個數字並不是絕對的,最推薦的方法,還是把系統的平均負載監控起來,然后根據更多的歷史數據,判斷負載的變化趨勢。當發現負載有明顯升高趨勢時,比如說負載翻倍了,你再去做分析和調查。

平均負載與 CPU 使用率 這里是有區別的

現實工作中,我們經常容易把平均負載和 CPU 使用率混淆,所以在這里,我也做一個區分。

可能你會疑惑,既然平均負載代表的是活躍進程數,那平均負載高了,不就意味着 CPU 使用率高嗎?

我們還是要回到平均負載的含義上來,平均負載是指單位時間內,處於可運行狀態和不可中斷狀態的進程數。所以,它不僅包括了正在使用 CPU的進程,還包括等待 CPU和等待 I/O的進程.

而 CPU 使用率,是單位時間內 CPU 繁忙情況的統計,跟平均負載並不一定完全對應。比如:

  • CPU 密集型進程,使用大量 CPU 會導致平均負載升高,此時這兩者是一致的。
  • I/O 密集型進程,等待 I/O 也會導致平均負載升高,但 CPU 使用率不一定很高。
  • 大量等待 CPU 的進程調度也會導致平均負載升高,此時的 CPU 使用率也會比較高。

平均負載案例分析

下面,我們以三個示例分別來看這三種情況,並用 iostat、mpstat、pidstat 等工具,找出平均負載升高的根源。

下面的案例都是基於 Centos進行測試,當然,同樣適用於其他 Linux 系統。我使用的案例環境如下所示:

機器配置:2 CPU,4GB 內存。

預先安裝 stress 和 sysstat 包,如

yum install stress sysstat

命令介紹

stress 是一個 Linux 系統壓力測試工具,這里我們用作異常進程模擬平均負載升高的場景。

而 sysstat 包含了常用的 Linux 性能工具,用來監控和分析系統的性能。我們的案例會用到這個包的兩個命令 mpstat 和 pidstat 。

  • mpstat 是一個常用的多核 CPU 性能分析工具,用來實時查看每個 CPU 的性能指標,以及所有 CPU 的平均指標。
  • pidstat 是一個常用的進程性能分析工具,用來實時查看進程的 CPU、內存、I/O 以及上下文切換等性能指標。

此外,每個場景都需要你開三個終端,登錄到同一台 Linux 機器中。

 場景一:CPU 密集型進程

首先,我們在第一個終端運行 stress 命令,模擬一個 CPU 使用率 100% 的場景:

[root@iZbp1hy7gff0krlfsjqsvgZ app]# stress #命令的參數幫助
`stress' imposes certain types of compute stress on your system

Usage: stress [OPTION [ARG]] ...
 -?, --help         show this help statement
     --version      show version statement
 -v, --verbose      be verbose
 -q, --quiet        be quiet
 -n, --dry-run      show what would have been done
 -t, --timeout N timeout after N seconds #多長時間 --backoff N    wait factor of N microseconds before work starts
 -c, --cpu N spawn N workers spinning on sqrt() -i, --io N         spawn N workers spinning on sync()
 -m, --vm N         spawn N workers spinning on malloc()/free()
     --vm-bytes B   malloc B bytes per vm worker (default is 256MB)
     --vm-stride B  touch a byte every B bytes (default is 4096)
     --vm-hang N    sleep N secs before free (default none, 0 is inf)
     --vm-keep      redirty memory instead of freeing and reallocating
 -d, --hdd N        spawn N workers spinning on write()/unlink()
     --hdd-bytes B  write B bytes per hdd worker (default is 1GB)

Example: stress --cpu 8 --io 4 --vm 2 --vm-bytes 128M --timeout 10s

Note: Numbers may be suffixed with s,m,h,d,y (time) or B,K,M,G (size).

執行壓測命令  第一個終端 執行的命令

$ stress --cpu 1 --timeout 600   
#或者執行$ stress -c 1 -t 600

接着,在第二個終端運行 uptime 查看平均負載的變化情況:

# -d 參數表示高亮顯示變化的區域
$ watch -d uptime
...,  load average: 1.00, 0.82, 0.41

最后,在第三個終端運行 mpstat 查看 CPU 使用率的變化情況:

# -P ALL 表示監控所有 CPU,后面數字 5 表示間隔 5 秒后輸出一組數據
$ mpstat -P ALL 5
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:30:06     CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
13:30:11     all   50.05    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00   49.95
13:30:11       0    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
13:30:11       1  100.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00

那么,到底是哪個進程導致了 CPU 使用率為 100% 呢?你可以使用 pidstat 來查詢:

# 間隔 5 秒后輸出一組數據
$ pidstat -u 5 1
13:37:07      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:37:12        0      2962  100.00    0.00    0.00    0.00  100.00     1  stress

 

 場景二:I/O 密集型進程

首先還是運行 stress 命令,但這次模擬 I/O 壓力,即不停地執行 sync:

# 顯示所有 CPU 的指標,並在間隔 5 秒輸出一組數據
$ mpstat -P ALL 5 1
Linux 4.15.0 (ubuntu) 09/22/18 _x86_64_ (2 CPU)
13:41:28 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:41:33 all 0.21 0.00 12.07 32.67 0.00 0.21 0.00 0.00 0.00 54.84
13:41:33 0 0.43 0.00 23.87 67.53 0.00 0.43 0.00 0.00 0.00 7.74
13:41:33 1 0.00 0.00 0.81 0.20 0.00 0.00 0.00 0.00 0.00 98.99

從這里可以看到,1 分鍾的平均負載會慢慢增加到 1.06,其中一個 CPU 的系統 CPU 使用率升高到了 23.87,而 iowait 高達 67.53%。這說明,平均負載的升高是由於 iowait 的升高。

那么到底是哪個進程,導致 iowait 這么高呢?我們還是用 pidstat 來查詢:

# 間隔 5 秒后輸出一組數據,-u 表示 CPU 指標
$ pidstat -u 5 1
Linux 4.15.0 (ubuntu)     09/22/18     _x86_64_    (2 CPU)
13:42:08      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
13:42:13        0       104    0.00    3.39    0.00    0.00    3.39     1  kworker/1:1H
13:42:13        0       109    0.00    0.40    0.00    0.00    0.40     0  kworker/0:1H
13:42:13        0      2997    2.00   35.53    0.00    3.99   37.52     1  stress
13:42:13        0      3057    0.00    0.40    0.00    0.00    0.40     0  pidstat

可以發現,還是 stress 進程導致的。

場景三:大量進程的場景

當系統中運行進程超出 CPU 運行能力時,就會出現等待 CPU 的進程。

比如,我們還是使用 stress,但這次模擬的是 8 個進程:

$ stress -c 8 --timeout 600

由於系統只有 2 個 CPU,明顯比 8 個進程要少得多,因而,系統的 CPU 處於嚴重過載狀態,平均負載高達 7.97:

$ uptime
...,  load average: 7.97, 5.93, 3.02

接着再運行 pidstat 來看一下進程的情況:

# 間隔 5 秒后輸出一組數據
$ pidstat -u 5 1
14:23:25      UID       PID    %usr %system  %guest   %wait    %CPU   CPU  Command
14:23:30        0      3190   25.00    0.00    0.00   74.80   25.00     0  stress
14:23:30        0      3191   25.00    0.00    0.00   75.20   25.00     0  stress
14:23:30        0      3192   25.00    0.00    0.00   74.80   25.00     1  stress
14:23:30        0      3193   25.00    0.00    0.00   75.00   25.00     1  stress
14:23:30        0      3194   24.80    0.00    0.00   74.60   24.80     0  stress
14:23:30        0      3195   24.80    0.00    0.00   75.00   24.80     0  stress
14:23:30        0      3196   24.80    0.00    0.00   74.60   24.80     1  stress
14:23:30        0      3197   24.80    0.00    0.00   74.80   24.80     1  stress
14:23:30        0      3200    0.00    0.20    0.00    0.20    0.20     0  pidstat

可以看出,8 個進程在爭搶 2 個 CPU,每個進程等待 CPU 的時間(也就是代碼塊中的 %wait 列)高達 75%。這些超出 CPU 計算能力的進程,最終導致 CPU 過載。

 

小結

分析完這三個案例,我再來歸納一下平均負載的理解

平均負載提供了一個快速查看系統整體性能的手段,反映了整體的負載情況。但只看平均負載本身,我們並不能直接發現,到底是哪里出現了瓶頸。所以,在理解平均負載時,也要注意:

  • 平均負載高有可能是 CPU 密集型進程導致的;

  • 平均負載高並不一定代表 CPU 使用率高,還有可能是 I/O 更繁忙了;;

  • 當發現負載高的時候,你可以使用 mpstat、pidstat 等工具,輔助分析負載的來源。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM