RPC,微服務,Service Mesh這些服務之間的調用是什么原理?


原文鏈接:https://www.jianshu.com/p/4fb96457389b

作者 codedump codedump.info 博主,多年從事互聯網服務器后台開發工作。可訪問作者博客閱讀 codedump 更多文章。

本文專注於演化過程中每一步的為什么(Why)和是什么(What)上面,盡量不在技術細節(How)上面做太多深入。

服務的三要素

 

一般而言,一個網絡服務包括以下的三個要素:

地址:調用方根據地址訪問到網絡接口。地址包括以下要素:IP地址、服務端口、服務協議(TCP、UDP,etc)。

協議格式:協議格式指的是該協議都有哪些字段,由接口提供者與協議調用者協商之后確定下來。

協議名稱:或者叫協議類型,因為在同一個服務監聽端口上面,可能同時提供多種接口服務於調用方,這時候需要協議類型(名稱)來區分不同的網絡接口。

需要說明在服務地址中:

IP地址提供了在互聯網上找到這台機器的憑證。

 

 
 

協議以及服務端口提供了在這台機器上找到提供服務的進程的憑證。

這都屬於TCPIP協議棧的知識點,不在這里深入詳述。

這里還需要對涉及到服務相關的一些名詞做解釋。

服務實例:服務對應的IP地址加端口的簡稱。需要訪問服務的時候,需要先尋址知道該服務每個運行實例的地址加端口,然后才能建立連接進行訪問。

服務注冊:某個服務實例宣稱自己提供了哪些服務,即某個IP地址+端口都提供了哪些服務接口。

服務發現:調用方通過某種方式找到服務提供方,即知道服務運行的IP地址加端口。

基於IP地址的調用

 

最初的網絡服務,通過原始的IP地址暴露給調用者。這種方式有以下的問題:

IP地址是難於記憶並且無意義的。

另外,從上面的服務三要素可以看到,IP地址其實是一個很底層的概念,直接對應了一台機器上的一個網絡接口,如果直接使用IP地址進行尋址,更換機器就變的很麻煩。

“盡量不使用過於底層的概念來提供服務”,是這個演化流程中的重要原則,好比在今天已經很少能夠看到直接用匯編語言編寫代碼的場景了,取而代之的,就是越來越多的抽象,本文中就展現了服務調用這一領域在這個過程中的演進流程。

在現在除非是測試階段,否則已經不能直接以IP地址的形式將服務提供出去了。

域名系統

 

前面的IP地址是給主機做為路由器尋址的數字型標識,並不好記憶。此時產生了域名系統,與單純提供IP地址相比,域名系統由於使用有意義的域名來標識服務,所以更容易記憶。另外,還可以更改域名所對應的IP地址,這為變換機器提供了便利。有了域名之后,調用方需要訪問某個網絡服務時,首先到域名地址服務中,根據DNS協議將域名解析為相應的IP地址,再根據返回的IP地址來訪問服務。

從這里可以看到,由於多了一步到域名地址服務查詢映射IP地址的流程,所以多了一步解析,為了減少這一步帶來的影響,調用方會緩存解析之后的結果,在一段時間內不過期,這樣就省去了這一步查詢的代價。

協議的接收與解析

 

以上通過域名系統,已經解決了服務IP地址難以記憶的問題,下面來看協議格式解析方面的演進。

一般而言,一個網絡協議包括兩部分:

協議包頭:這里存儲協議的元信息(meta infomation),其中可能會包括協議類型、報體長度、協議格式等。需要說明的是,包頭一般為固定大小,或者有明確的邊界(如HTTP協議中的\r\n結束符),否則無法知道包頭何時結束。

協議包體:具體的協議內容。

無論是HTTP協議,又或者是自定義的二進制網絡協議,大體都由這兩部分組成。

 
 

由於很多時候不能一口氣接收完畢客戶端的協議數據,因此在接收協議數據時,一般采用狀態機來做協議數據的接收:

 
 

接收完畢了網絡數據,在協議解析方面卻長期停滯不前。一個協議,有多個字段(field),而這些不同的字段有不同的類型,簡單的raw類型(如整型、字符串)還好說,但是遇到復雜的類型如字典、數組等就比較麻煩。

當時常見的手段有以下幾種:

使用json或者xml這樣的數據格式。好處是可視性強,表達起上面的復雜類型也方便,缺陷是容易被破解,傳輸過去的數據較大。

自定義二進制協議。每個公司做大了,在這一塊難免有幾個類似的輪子。筆者見過比較典型的是所謂的TLV格式(Type-Length-Value),自定義二進制格式最大的問題出現在協議聯調與協商的時候,由於可視性比較弱,有可能這邊少了一個字段那邊多了一個字段,給聯調流程帶來麻煩。

上面的問題一直到Google的Protocol Buffer(以下簡稱PB)出現之后才得到很大的改善。PB出現之后,也有很多類似的技術出現,如Thrift、MsgPack等,不在這里闡述,將這一類技術都以PB來描述。

與前面的兩種手段相比,PB具有以下的優點:

使用proto格式文件來定義協議格式,proto文件是一個典型的DSL(domain-specific language)文件,文件中描述了協議的具體格式,每個字段都是什么類型,哪些是可選字段哪些是必選字段。有了proto文件之后,C\S兩端是通過這個文件來進行協議的溝通交流的,而不是具體的技術細節。

PB能通過proto文件生成各種語言對應的序列化反序列化代碼,給跨語言調用提供了方便。

PB自己能夠對特定類型進行數據壓縮,減少數據大小。

 
 

服務網關

 

有了前面的演化之后,寫一個簡單的單機服務器已經不難。然而,當隨着訪問量的增大,一台機器已經不足以支撐所有的請求,此時就需要橫向擴展多加一些業務服務器。

而前面通過域名訪問服務的架構就遇到了問題:如果有多個服務實例可以提供相同的服務,那么勢必需要在DNS的域名解析中將域名與多個地址進行綁定。這樣的方案就有如下的問題:

如何檢查這些實例的健康情況,同時在發現出現問題的時候增刪服務實例地址?即所謂的服務高可用問題。

把這些服務實例地址都暴露到外網,會不會涉及到安全問題?即使可以解決安全問題,那么也需要每台機器都做安全策略。

由於DNS協議的特點,增刪服務實例並不是實時的,有時候會影響到業務。

為了解決這些問題,就引入了反向代理網關這一組件。它提供如下的功能:

負載均衡功能:根據某些算法將請求分派到服務實例上。

提供管理功能,可以給運維管理員增減服務實例。

由於它決定了服務請求流量的走向,因此還可以做更多的其他功能:灰度引流、安全防攻擊(如訪問黑白名單、卸載SSL證書)等。

 
 

有四層和七層負載均衡軟件,其中四層負載均衡這里介紹LVS,七層負載均衡介紹Nginx。

 
 

上圖是簡易的TCPIP協議棧層次圖,其中LVS工作在四層,即請求來到LVS這里時是根據四層協議來決定請求最終走到哪個服務實例;而Nginx工作在七層,主要用於HTTP協議,即根據HTTP協議本身來決定請求的走向。需要說明的是,Nginx也可以工作在四層,但是這么用的地方不是很多,可以參考nginx的stream模塊。

做為四層負載均衡的LVS

 

(由於LVS有好幾種工作模式,並不是每一種我都很清楚,以下表述僅針對Full NAT模式,下面的表述或者有誤)

LVS有如下的組成部分:

Direct Server(以下簡稱DS):前端暴露給客戶端進行負載均衡的服務器。

Virtual Ip地址(以下簡稱VIP):DS暴露出去的IP地址,做為客戶端請求的地址。

Direct Ip地址(以下簡稱DIP):DS用於與Real Server交互的IP地址。

Real Server(以下簡稱RS):后端真正進行工作的服務器,可以橫向擴展。

Real IP地址(以下簡稱RIP):RS的地址。

Client IP地址(以下簡稱CIP):Client的地址。

 
 

客戶端進行請求時,流程如下:

使用VIP地址訪問DS,此時的地址二元組為<src:CIP,dst:VIP>。

DS根據自己的負載均衡算法,選擇一個RS將請求轉發過去,在轉發過去的時候,修改請求的源IP地址為DIP地址,讓RS看上去認為是DS在訪問它,此時的地址二元組為<src:DIP,dst:RIP A>。

RS處理並且應答該請求,這個回報的源地址為RS的RIP地址,目的地址為DIP地址,此時的地址二元組為<src:RIP A,dst:DIP>。

DS在收到該應答包之后,將報文應答客戶端,此時修改應答報文的源地址為VIP地址,目的地址為CIP地址,此時的地址二元組為<src:VIP,dst:CIP>。

做為七層負載均衡的Nginx

 

在開始展開討論之前,需要簡單說一下正向代理和反向代理。

所謂的正向代理(proxy),我的理解就是在客戶端處的代理。如瀏覽器中的可以配置的訪問某些網站的代理,就屬於正向代理,但是一般而言不會說正向代理而是代理,即默認代理都是正向的。

而反向代理(reverse proxy)就是擋在服務器端前面的代理,比如前面LVS中的DS服務器就屬於一種反向代理。為什么需要反向代理,大體的原因有以下的考量:

負載均衡:希望在這個反向代理的服務器中,將請求均衡的分發到后面的服務器中。

安全:不想向客戶端暴露太多的服務器地址,統一接入到這個反向代理服務器中,在這里做限流、安全控制等。

由於統一接入了客戶端的請求,所以在反向代理的接入層可以做更多的控制策略,比如灰度流量發布、權重控制等等。

反向代理與所謂的gateway、網關等,我認為沒有太多的差異,只是叫法不同而已,做的事情都是類似的。

Nginx應該是現在用的最多的HTTP 七層負載均衡軟件,在Nginx中,可以通過在配置的server塊中定義一個域名,然后將該域名的請求綁定到對應的Upstream中,而實現轉發請求到這些Upstream的效果。

如:

upstreamhello {serverA:11001;serverB:11001;}location/ {roothtml;indexindex.html index.htm;proxy_passhttp://hello;}

這是最簡單的Nginx反向代理配置,實際線上一個接入層背后可能有多個域名,如果配置變動的很大,每次域名以及對應的Upstream的配置修改都需要人工干預,效率會很慢。這時候就要提到一個叫DevOps的名詞了,我的理解就是開發各種便於自動化運維工具的工程師。

有了上面的分析,此時一個提供七層HTTP訪問接口的服務架構大體是這樣的:

 
 

服務發現與RPC

 

前面已經解決單機服務器對外提供服務的大部分問題,來簡單回顧:

域名系統解決了需要記住復雜的數字IP地址的問題。

PB類軟件庫的出現解決協議定義解析的痛點。

網關類組件解決客戶端接入以及服務器橫向擴展等一系列問題。

然而一個服務,通常並不見得只由本身提供服務就可以,服務過程中可能還涉及到查詢其他服務的流程,常見的如數據類服務如Mysql、Redis等,這一類供服務內調用查詢的服務被成為內部的服務,通常並不直接暴露到外網去。

面向公網的服務,一般都是以域名的形式提供給外部調用者,然而對於服務內部之間的互相調用,域名形式還不夠,其原因在於:

DNS服務發現的粒度太粗,只能到IP地址級別,而服務的端口還需要用戶自己維護。

對於服務的健康狀況的檢查,DNS的檢查還不夠,需要運維的參與。

DNS對於服務狀態的收集很欠缺,而服務狀態最終應該是反過來影響服務被調用情況的。

DNS的變更需要人工的參與,不夠智能以及自動化。

綜上,內網間的服務調用,通常而言會自己實現一套“服務發現”類的系統,其包括以下幾個組件:

服務發現系統:用於提供服務的尋址、注冊能力,以及對服務狀態進行統計匯總,根據服務情況更改服務的調用情況。比如,某個服務實例的響應慢了,此時分配給該實例的流量響應的就會少一些。而由於這個系統能提供服務的尋址能力,所以一些尋址策略就可以在這里做,比如灰度某些特定的流量只能到某些特定的實例上,比如可以配置每個實例的流量權重等。

一套與該服務系統搭配使用的RPC庫,其提供以下功能:

服務提供方:使用RPC庫注冊自己的服務到服務發現系統,另外上報自己的服務情況。

服務調用方:使用RPC庫進行服務尋址,實時從服務發現系統那邊獲取最新的服務調度策略。

提供協議的序列化、反序列化功能,負載均衡的調用策略、熔斷限流等安全訪問策略,這部分對於服務的提供方以及調用方都適用。

 
 

有了這套服務發現系統以及搭配使用的RPC庫之后,來看看現在的服務調用是什么樣的。

寫業務邏輯的,再也不用關注服務地址、協議解析、服務調度、自身服務情況上報等等與業務邏輯本身並沒有太多關系的工作,專注於業務邏輯即可。

服務發現系統一般還有與之搭配的管理后台界面,可以通過這里對服務的策略進行修改查看等操作。

對應的還會有服務監控系統,對應的這是一台實時采集服務數據進行計算的系統,有了這套系統服務質量如何一目了然。

服務健康狀態的檢查完全自動化,在狀況不好的時候對服務進行降級處理,人工干預變少,更加智能以及自動化。

現在服務的架構又演進成了這樣:

 
 

ServiceMesh

 

架構發展到上面的程度,實際上已經能夠解決大部分的問題了。這兩年又出現了一個很火的概念:ServiceMesh,中文翻譯為“服務網格”,來看看它又能解決什么問題。

前面的服務發現系統中,需要一個與之配套的RPC庫,然而這又會有如下的問題:

如果需要支持多語言,該怎么做?每個語言實現一個對應的RPC庫嗎?

庫的升級很麻煩,比如RPC庫本身出了安全漏洞,比如需要升級版本,一般推動業務方去做這個升級是很難的,尤其是系統做大了之后。

可以看到,由於RPC庫是嵌入到進程之中的組件,所以以上問題很麻煩,於是就想出了一個辦法:將原先的一個進程拆分成兩個進程,如下圖所示。

 
 

在服務mesh化之前,服務調用方實例通過自己內部的RPC庫來與服務提供方實例進行通信。

在服務mesh化之后,會與服務調用方同機部署一個local Proxy也就是ServiceMesh的proxy,此時服務調用的流量會先走到這個proxy,再由它完成原先RPC庫響應的工作。至於如何實現這個流量的劫持,答案是采用iptables,將特定端口的流量轉發到proxy上面即可。

有了這一層的分拆,將業務服務與負責RPC庫作用的Proxy分開來,上面的兩個痛點問題就變成了對每台物理機上面的mesh proxy的升級維護問題,多語言也不是問題了,因為都是通過網絡調用完成的RPC通信,而不是進程內使用RPC庫。

然而這個方案並不是什么問題都沒有的,最大的問題在於,多了這一層的調用之后,勢必有影響原來的響應時間。

截止目前(2019.6月),ServiceMesh仍然還是一個概念大於實際的產品。

從上面的演進歷史可以看到,所謂的“中間層理論”,即“Any problem in computer science can be solved by another layer of indirection(計算機科學領域的任何問題都可以通過增加一個間接的中間層來解決)”在這個過程中被廣泛使用,比如為了解決IP地址難於記憶的問題,引入了域名系統,比如為了解決負載均衡問題引入了網關,等等。然而每引入一個中間層,勢必帶來另外的影響,比如ServiceMesh多一次到Proxy的調用,如何權衡又是另外的問題了。

另外,回到最開始的服務三要素中,可以看到整個演化的歷史也是逐漸屏蔽了下層組件的流程,比如:

域名的出現屏蔽了IP地址。

服務發現系統屏蔽協議及端口號。

PB類序列化庫屏蔽了使用者自己對協議的解析。

可以看到,演進流程讓業務開發者更加專注在業務邏輯上,這類的演進流程不只發生在今天,也不會僅僅發生在今天,未來類似的演進也將再次發生。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM