限制容器內存
壓力測試工具 stress
為了測試容器的內存使用情況,筆者在 ubuntu 的鏡像中安裝了壓力測試工作 stress,並新創建了鏡像 u-stress。本文演示用的所有容器都會通過 u-stress 鏡像創建(本文運行容器的宿主機為 CentOS7)。下面是創建 u-stress 鏡像的 Dockerfile:
FROM ubuntu:latest RUN apt-get update && \ apt-get install stress
創建鏡像的命令為:
$ docker build -t u-stress:latest .
限制內存使用上限
在進入繁瑣的設置細節之前我們先完成一個簡單的用例:限制容器可以使用的最大內存為 300M。
-m(--memory=) 選項可以完成這樣的配置:
$ docker run -it -m 300M --memory-swap -1 --name con1 u-stress /bin/bash
下面的 stress 命令會創建一個進程並通過 malloc 函數分配內存:
# stress --vm 1 --vm-bytes 500M
通過 docker stats 命令查看實際情況:
上面的 docker run 命令中通過 -m 選項限制容器使用的內存上限為 300M。同時設置 memory-swap 值為 -1,它表示容器程序使用內存的受限,而可以使用的 swap 空間使用不受限制(宿主機有多少 swap 容器就可以使用多少)。
下面我們通過 top 命令來查看 stress 進程內存的實際情況:
上面的截圖中先通過 pgrep 命令查詢 stress 命令相關的進程,進程號比較大的那個是用來消耗內存的進程,我們就查看它的內存信息。VIRT 是進程虛擬內存的大小,所以它應該是 500M。RES 為實際分配的物理內存數量,我們看到這個值就在 300M 上下浮動。看樣子我們已經成功的限制了容器能夠使用的物理內存數量。
限制可用的 swap 大小
強調一下 --memory-swap 是必須要與 --memory 一起使用的。
正常情況下, --memory-swap 的值包含容器可用內存和可用 swap。所以 --memory="300m" --memory-swap="1g" 的含義為:
容器可以使用 300M 的物理內存,並且可以使用 700M(1G -300M) 的 swap。--memory-swap 居然是容器可以使用的物理內存和可以使用的 swap 之和!
把 --memory-swap 設置為 0 和不設置是一樣的,此時如果設置了 --memory,容器可以使用的 swap 大小為 --memory 值的兩倍。
如果 --memory-swap 的值和 --memory 相同,則容器不能使用 swap。下面的 demo 演示了在沒有 swap 可用的情況下向系統申請大量內存的場景:
$ docker run -it --rm -m 300M --memory-swap=300M u-stress /bin/bash # stress --vm 1 --vm-bytes 500M
demo 中容器的物理內存被限制在 300M,但是進程卻希望申請到 500M 的物理內存。在沒有 swap 可用的情況下,進程直接被 OOM kill 了。如果有足夠的 swap,程序至少還可以正常的運行。
我們可以通過 --oom-kill-disable 選項強行阻止 OOM kill 的發生,但是筆者認為 OOM kill 是一種健康的行為,為什么要阻止它呢?
除了限制可用 swap 的大小,還可以設置容器使用 swap 的緊迫程度,這一點和主機的 swappiness 是一樣的。容器默認會繼承主機的 swappiness,如果要顯式的為容器設置 swappiness 值,可以使用 --memory-swappiness 選項。‘
限制容器的 CPU資源
限制可用的 CPU 個數
在 docker 1.13 及更高的版本上,能夠很容易的限制容器可以使用的主機 CPU 個數。只需要通過 --cpus 選項指定容器可以使用的 CPU 個數就可以了,並且還可以指定如 1.5 之類的小數。接下來我們在一台有四個 CPU 且負載很低的主機上進行 demo 演示:
通過下面的命令創建容器,--cpus=2 表示容器最多可以使用主機上兩個 CPU:
$ docker run -it --rm --cpus=2 u-stress:latest /bin/bash
然后由 stress 命令創建四個繁忙的進程消耗 CPU 資源:
# stress -c 4
我們先來看看 docker stats 命令的輸出:
容器 CPU 的負載為 200%,它的含義為單個 CPU 負載的兩倍。我們也可以把它理解為有兩顆 CPU 在 100% 的為它工作。
再讓我們通過 top 命令看看主機 CPU 的真實負載情況:
哈哈,有點大跌眼鏡!實際的情況並不是兩個 CPU 負載 100%,而另外兩個負載 0%。四個 CPU 的負載都是 50%,加起來容器消耗的 CPU 總量就是兩個 CPU 100% 的負載。
看來對於進程來說是沒有 CPU 個數這一概念的,內核只能通過進程消耗的 CPU 時間片來統計出進程占用 CPU 的百分比。這也是我們看到的各種工具中都使用百分比來說明 CPU 使用率的原因。
嚴謹起見,我們看看 docker 的官方文檔中是如何解釋 --cpus 選項的:
Specify how much of the available CPU resources a container can use.
果然,人家用的是 "how much",不可數的!並且 --cpus 選項支持設為小數也從側面說明了對 CPU 的計量只能是百分比。
看來筆者在本文中寫的 "CPU 個數" 都是不准確的。既然不准確,為什么還要用?當然是為了容易理解。況且筆者認為在 --cpus 選項的上下文中理解為 "CPU 個數" 並沒有問題(有興趣的同學可以讀讀 --cpus 選項的由來,人家的初衷也是要表示 CPU 個數的)。
雖然 --cpus 選項用起來很爽,但它畢竟是 1.13 才開始支持的。對於更早的版本完成同樣的功能我們需要配合使用兩個選項:--cpu-period 和 --cpu-quota(1.13 及之后的版本仍然支持這兩個選項)。下面的命令實現相同的結果:
$ docker run -it --rm --cpu-period=100000 --cpu-quota=200000 u-stress:latest /bin/bash
這樣的配置選項是不是讓人很傻眼呀!100000 是什么?200000 又是什么? 它們的單位是微秒,100000 表示 100 毫秒,200000 表示 200 毫秒。它們在這里的含義是:在每 100 毫秒的時間里,運行進程使用的 CPU 時間最多為 200 毫秒(需要兩個 CPU 各執行 100 毫秒)。要想徹底搞明白這兩個選項的同學可以參考:CFS BandWith Control。我們要知道這兩個選項才是事實的真相,但是真相往往很殘忍!還好 --cpus 選項成功的解救了我們,其實它就是包裝了 --cpu-period 和 --cpu-quota。
指定固定的 CPU
通過 --cpus 選項我們無法讓容器始終在一個或某幾個 CPU 上運行,但是通過 --cpuset-cpus 選項卻可以做到!這是非常有意義的,因為現在的多核系統中每個核心都有自己的緩存,如果頻繁的調度進程在不同的核心上執行勢必會帶來緩存失效等開銷。下面我們就演示如何設置容器使用固定的 CPU,下面的命令為容器設置了 --cpuset-cpus 選項,指定運行容器的 CPU 編號為 1:
$ docker run -it --rm --cpuset-cpus="1" u-stress:latest /bin/bash
再啟動壓力測試命令:
# stress -c 4
然后查看主機 CPU 的負載情況:
這次只有 Cpu1 達到了 100%,其它的 CPU 並未被容器使用。我們還可以反復的執行 stress -c 4 命令,但是始終都是 Cpu1 在干活。
再看看容器的 CPU 負載,也是只有 100%:
--cpuset-cpus 選項還可以一次指定多個 CPU:
$ docker run -it --rm --cpuset-cpus="1,3" u-stress:latest /bin/bash
這次我們指定了 1,3 兩個 CPU,運行 stress -c 4 命令,然后檢查主機的 CPU 負載:
Cpu1 和 Cpu3 的負載都達到了 100%。
容器的 CPU 負載也達到了 200%:
--cpuset-cpus 選項的一個缺點是必須指定 CPU 在操作系統中的編號,這對於動態調度的環境(無法預測容器會在哪些主機上運行,只能通過程序動態的檢測系統中的 CPU 編號,並生成 docker run 命令)會帶來一些不便。
設置使用 CPU 的權重
當 CPU 資源充足時,設置 CPU 的權重是沒有意義的。只有在容器爭用 CPU 資源的情況下, CPU 的權重才能讓不同的容器分到不同的 CPU 用量。--cpu-shares 選項用來設置 CPU 權重,它的默認值為 1024。我們可以把它設置為 2 表示很低的權重,但是設置為 0 表示使用默認值 1024。
下面我們分別運行兩個容器,指定它們都使用 Cpu0,並分別設置 --cpu-shares 為 512 和 1024:
$ docker run -it --rm --cpuset-cpus="0" --cpu-shares=512 u-stress:latest /bin/bash $ docker run -it --rm --cpuset-cpus="0" --cpu-shares=1024 u-stress:latest /bin/bash
在兩個容器中都運行 stress -c 4 命令。
此時主機 Cpu0 的負載為 100%:
容器中 CPU 的負載為:
兩個容器分享一個 CPU,所以總量應該是 100%。具體每個容器分得的負載則取決於 --cpu-shares 選項的設置!我們的設置分別是 512 和 1024,則它們分得的比例為 1:2。在本例中如果想讓兩個容器各占 50%,只要把 --cpu-shares 選項設為相同的值就可以了。