Envoy Proxy 在大多數情況下都是作為 Sidecar
與應用部署在同一網絡環境中,每個應用只需要與 Envoy(localhost
)交互,不需要知道其他服務的地址。然而這並不是 Envoy 僅有的使用場景,它本身就是一個七層代理,通過模塊化結構實現了流量治理、信息監控等核心功能,比如流量治理功能就包括自動重連、熔斷、全局限速、流量鏡像和異常檢測等多種高級功能,因此 Envoy 也常常被用於邊緣代理,比如 Istio 的 Ingress Gateway
、基於 Envoy 實現的 Ingress Controller(Contour、Ambassador、Gloo 等)。
我的博客也是部署在輕量級 Kubernetes
集群上的(其實是 k3s
啦),一開始使用 Contour
作為 Ingress Controller
,暴露集群內的博客、評論等服務。但好景不長,由於我在集群內部署了各種奇奇怪怪的東西,有些個性化配置 Contour
無法滿足我的需求,畢竟大家都知道,每抽象一層就會丟失很多細節。換一個 Controller 保不齊以后還會遇到這種問題,索性就直接裸用 Envoy
作為邊緣代理,大不了手擼 YAML
唄。
當然也不全是手擼,雖然沒有所謂的控制平面,但儀式感還是要有的,我可以基於文件來動態更新配置啊,具體的方法參考 Envoy 基礎教程:基於文件系統動態更新配置。
1. UDS 介紹
說了那么多廢話,下面進入正題。為了提高博客的性能,我選擇將博客與 Envoy
部署在同一個節點上,並且全部使用 HostNetwork
模式,Envoy
通過 localhost 與博客所在的 Pod(Nginx
) 通信。為了進一步提高性能,我盯上了 Unix Domain Socket(UDS,Unix域套接字),它還有另一個名字叫 IPC
(inter-process communication,進程間通信)。為了理解 UDS
,我們先來建立一個簡單的模型。
現實世界中兩個人進行信息交流的整個過程被稱作一次通信(Communication
),通信的雙方被稱為端點(Endpoint
)。工具通訊環境的不同,端點之間可以選擇不同的工具進行通信,距離近可以直接對話,距離遠可以選擇打電話、微信聊天。這些工具就被稱為 Socket
。
同理,在計算機中也有類似的概念:
- 在
Unix
中,一次通信由兩個端點組成,例如HTTP
服務端和HTTP
客戶端。 - 端點之間想要通信,必須借助某些工具,Unix 中端點之間使用
Socket
來進行通信。
Socket
原本是為網絡通信而設計的,但后來在 Socket
的框架上發展出一種 IPC
機制,就是 UDS
。使用 UDS 的好處顯而易見:不需要經過網絡協議棧,不需要打包拆包、計算校驗和、維護序號和應答等,只是將應用層數據從一個進程拷貝到另一個進程。這是因為,IPC 機制本質上是可靠的通訊,而網絡協議是為不可靠的通訊設計的。
UDS
與網絡 Socket 最明顯的區別在於,網絡 Socket 地址是 IP 地址加端口號,而 UDS
的地址是一個 Socket 類型的文件在文件系統中的路徑,一般名字以 .sock
結尾。這個 Socket 文件可以被系統進程引用,兩個進程可以同時打開一個 UDS
進行通信,而且這種通信方式只會發生在系統內核里,不會在網絡上進行傳播。下面就來看看如何讓 Envoy
通過 UDS
與上游集群 Nginx
進行通信吧,它們之間的通信模型大概就是這個樣子:
2. Nginx 監聽 UDS
首先需要修改 Nginx
的配置,讓其監聽在 UDS
上,至於 Socket
描述符文件的存儲位置,就隨你的意了。具體需要修改 listen
參數為下面的形式:
listen unix:/sock/hugo.sock;
當然,如果想獲得更快的通信速度,可以放在 /dev/shm
目錄下,這個目錄是所謂的 tmpfs
,它是 RAM
可以直接使用的區域,所以讀寫速度都會很快,下文會單獨說明。
3. Envoy-->UDS-->Nginx
Envoy
默認情況下是使用 IP 地址和端口號和上游集群通信的,如果想使用 UDS
與上游集群通信,首先需要修改服務發現的類型,將 type
修改為 static
:
type: static
同時還需將端點定義為 UDS:
- endpoint:
address:
pipe:
path: "/sock/hugo.sock"
最終的 Cluster 配置如下:
- "@type": type.googleapis.com/envoy.api.v2.Cluster
name: hugo
connect_timeout: 15s
type: static
load_assignment:
cluster_name: hugo
endpoints:
- lb_endpoints:
- endpoint:
address:
pipe:
path: "/sock/hugo.sock"
最后要讓 Envoy
能夠訪問 Nginx
的 Socket
文件,Kubernetes 中可以將同一個 emptyDir
掛載到兩個 Container 中來達到共享的目的,當然最大的前提是 Pod 中的 Container 是共享 IPC 的。配置如下:
spec:
...
template:
...
spec:
containers:
- name: envoy
...
volumeMounts:
- mountPath: /sock
name: hugo-socket
...
- name: hugo
...
volumeMounts:
- mountPath: /sock
name: hugo-socket
...
volumes:
...
- name: hugo-socket
emptyDir: {}
現在你又可以愉快地訪問我的博客了,查看 Envoy
的日志,成功將請求通過 Socket
轉發給了上游集群:
[2020-04-27T02:49:47.943Z] "GET /posts/prometheus-histograms/ HTTP/1.1" 200 - 0 169949 1 0 "66.249.64.209,45.145.38.4" "Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" "9d490b2d-7c18-4dc7-b815-97f11bfc04d5" "fuckcloudnative.io" "/dev/shm/hugo.sock"
嘿嘿,Google
的爬蟲也來湊熱鬧。
你可能會問我:你這里的 Socket 為什么在 /dev/shm/
目錄下啊?別急,還沒結束呢,先來補充一個背景知識。
4. Linux 共享內存機制
共享內存(shared memory),是 Linux
上一種用於進程間通信(IPC)的機制。
進程間通信可以使用管道,Socket,信號,信號量,消息隊列等方式,但這些方式通常需要在用戶態、內核態之間拷貝,一般認為會有 4 次拷貝;相比之下,共享內存將內存直接映射到用戶態空間,即多個進程訪問同一塊內存,理論上性能更高。嘿嘿,又可以改進上面的方案了。
共享內存有兩種機制:
POSIX
共享內存(shm_open()、shm_unlink()
)System V
共享內存(shmget()、shmat()、shmdt()
)
其中,System V
共享內存歷史悠久,一般的 UNIX
系統上都有這套機制;而 POSIX
共享內存機制接口更加方便易用,一般是結合內存映射 mmap
使用。
mmap
和 System V
共享內存的主要區別在於:
- System V shm 是持久化的,除非被一個進程明確的刪除,否則它始終存在於內存里,直到系統關機。
mmap
映射的內存不是持久化的,如果進程關閉,映射隨即失效,除非事先已經映射到了一個文件上。/dev/shm
是 Linux 下 sysv 共享內存的默認掛載點。
POSIX
共享內存是基於 tmpfs
來實現的。實際上,更進一步,不僅 PSM
(POSIX shared memory),而且 SSM
(System V shared memory) 在內核也是基於 tmpfs
實現的。
從這里可以看到 tmpfs
主要有兩個作用:
- 用於
System V
共享內存,還有匿名內存映射;這部分由內核管理,用戶不可見。 - 用於
POSIX
共享內存,由用戶負責mount
,而且一般 mount 到/dev/shm
,依賴於CONFIG_TMPFS
。
雖然 System V 與 POSIX 共享內存都是通過 tmpfs 實現,但是受的限制卻不相同。也就是說 /proc/sys/kernel/shmmax 只會影響 System V 共享內存,/dev/shm 只會影響 POSIX 共享內存。實際上,System V
與 POSIX
共享內存本來就是使用的兩個不同的 tmpfs
實例。
System V
共享內存能夠使用的內存空間只受 /proc/sys/kernel/shmmax
限制;而用戶通過掛載的 /dev/shm
,默認為物理內存的 1/2
。
概括一下:
POSIX
共享內存與System V
共享內存在內核都是通過tmpfs
實現,但對應兩個不同的tmpfs
實例,相互獨立。- 通過
/proc/sys/kernel/shmmax
可以限制System V
共享內存的最大值,通過/dev/shm
可以限制POSIX
共享內存的最大值。
5. Kubernetes 共享內存
Kubernetes
創建的 Pod,其共享內存默認 64MB
,且不可更改。
為什么是這個值呢?其實,Kubernetes 本身是沒有設置共享內存的大小的,64MB
其實是 Docker
默認的共享內存的大小。
Docker run 的時候,可以通過 --shm-size
來設置共享內存的大小:
🐳 → docker run --rm centos:7 df -h |grep shm
shm 64M 0 64M 0% /dev/shm
🐳 → docker run --rm --shm-size 128M centos:7 df -h |grep shm
shm 128M 0 128M 0% /dev/shm
然而,Kubernetes 並沒有提供設置 shm
大小的途徑。在這個 issue 里社區討論了很久是否要給 shm
增加一個參數,但是最終並沒有形成結論,只是有一個 workgroud 的辦法:將 Memory
類型的 emptyDir
掛載到 /dev/shm
來解決。
Kubernetes 提供了一種特殊的 emptyDir
:可以將 emptyDir.medium
字段設置為 "Memory"
,以告訴 Kubernetes 使用 tmpfs
(基於 RAM 的文件系統)作為介質。用戶可以將 Memory 介質的 emptyDir
掛到任何目錄,然后將這個目錄當作一個高性能的文件系統來使用,當然也可以掛載到 /dev/shm
,這樣就可以解決共享內存不夠用的問題了。
使用 emptyDir 雖然可以解決問題,但也是有缺點的:
- 不能及時禁止用戶使用內存。雖然過 1~2 分鍾
Kubelet
會將Pod
擠出,但是這個時間內,其實對Node
還是有風險的。 - 影響 Kubernetes 調度,因為
emptyDir
並不涉及 Node 的Resources
,這樣會造成 Pod “偷偷”使用了 Node 的內存,但是調度器並不知曉。 - 用戶不能及時感知到內存不可用。
由於共享內存也會受 Cgroup
限制,我們只需要給 Pod 設置 Memory limits
就可以了。如果將 Pod 的 Memory limits
設置為共享內存的大小,就會遇到一個問題:當共享內存被耗盡時,任何命令都無法執行,只能等超時后被 Kubelet 驅逐。
這個問題也很好解決,將共享內存的大小設置為 Memory limits
的 50%
就好。綜合以上分析,最終設計如下:
- 將 Memory 介質的
emptyDir
掛載到/dev/shm/
。 - 配置 Pod 的
Memory limits
。 - 配置
emptyDir
的sizeLimit
為Memory limits
的 50%。
6. 最終配置
根據上面的設計,最終的配置如下。
Nginx
的配置改為:
listen unix:/dev/shm/hugo.sock;
Envoy
的配置改為:
- "@type": type.googleapis.com/envoy.api.v2.Cluster
name: hugo
connect_timeout: 15s
type: static
load_assignment:
cluster_name: hugo
endpoints:
- lb_endpoints:
- endpoint:
address:
pipe:
path: "/dev/shm/hugo.sock"
Kubernetes 的 manifest
改為:
spec:
...
template:
...
spec:
containers:
- name: envoy
resources:
limits:
memory: 256Mi
...
volumeMounts:
- mountPath: /dev/shm
name: hugo-socket
...
- name: hugo
resources:
limits:
memory: 256Mi
...
volumeMounts:
- mountPath: /dev/shm
name: hugo-socket
...
volumes:
...
- name: hugo-socket
emptyDir:
medium: Memory
sizeLimit: 128Mi
7. 參考資料
微信公眾號
掃一掃下面的二維碼關注微信公眾號,在公眾號中回復◉加群◉即可加入我們的雲原生交流群,和孫宏亮、張館長、陽明等大佬一起探討雲原生技術