一、背景
前面介紹了I/O多路復用模型,那有了I/O復用,有了epoll已經可以使服務器並發幾十萬連接的同時,還能維持比較高的TPS,難道還不夠嗎?比如現在在使用epoll的時候一般都是起個任務,不斷的去巡檢事件,然后通知處理,而比較理想的方式是最好能以一種回調的機制,提供一個編程框架,讓程序更有結構些,另一方面,如果希望每個事件通知之后,做的事情能有機會被代理到某個線程里面去單獨運行,而線程完成的狀態又能通知回主任務,那么"異步"的進制就必須被引入。所以這個章節主要介紹下"編程框架"。
二、Reactor模型
Reactor模式是處理並發I/O比較常見的一種模式,用於同步I/O,中心思想是將所有要處理的I/O事件注冊到一個中心I/O多路復用器上,同時主線程/進程阻塞在多路復用器上;一旦有I/O事件到來或是准備就緒(文件描述符或socket可讀、寫),多路復用器返回並將事先注冊的相應I/O事件分發到對應的處理器中。
Reactor是一種事件驅動機制,和普通函數調用的不同之處在於:應用程序不是主動的調用某個API完成處理,而是恰恰相反,Reactor逆置了事件處理流程,應用程序需要提供相應的接口並注冊到Reactor上,如果相應的事件發生,Reactor將主動調用應用程序注冊的接口,這些接口又稱為“回調函數”。用“好萊塢原則”來形容Reactor再合適不過了:不要打電話給我們,我們會打電話通知你。
Reactor模式與Observer模式在某些方面極為相似:當一個主體發生改變時,所有依屬體都得到通知。不過,觀察者模式與單個事件源關聯,而反應器模式則與多個事件源關聯 。
在Reactor模式中,有5個關鍵的參與者:
- 描述符(handle):由操作系統提供的資源,用於識別每一個事件,如Socket描述符、文件描述符、信號的值等。在Linux中,它用一個整數來表示。事件可以來自外部,如來自客戶端的連接請求、數據等。事件也可以來自內部,如信號、定時器事件。
- 同步事件多路分離器(event demultiplexer):事件的到來是隨機的、異步的,無法預知程序何時收到一個客戶連接請求或收到一個信號。所以程序要循環等待並處理事件,這就是事件循環。在事件循環中,等待事件一般使用I/O復用技術實現。在linux系統上一般是select、poll、epoll等系統調用,用來等待一個或多個事件的發生。I/O框架庫一般將各種I/O復用系統調用封裝成統一的接口,稱為事件多路分離器。調用者會被阻塞,直到分離器分離的描述符集上有事件發生。這點可以參考前面的 I/O多路復用模型。
- 事件處理器(event handler):I/O框架庫提供的事件處理器通常是由一個或多個模板函數組成的接口。這些模板函數描述了和應用程序相關的對某個事件的操作,用戶需要繼承它來實現自己的事件處理器,即具體事件處理器。因此,事件處理器中的回調函數一般聲明為虛函數,以支持用戶拓展。
- 具體的事件處理器(concrete event handler):是事件處理器接口的實現。它實現了應用程序提供的某個服務。每個具體的事件處理器總和一個描述符相關。它使用描述符來識別事件、識別應用程序提供的服務。
- Reactor 管理器(reactor):定義了一些接口,用於應用程序控制事件調度,以及應用程序注冊、刪除事件處理器和相關的描述符。它是事件處理器的調度核心。 Reactor管理器使用同步事件分離器來等待事件的發生。一旦事件發生,Reactor管理器先是分離每個事件,然后調度事件處理器,最后調用相關的模 板函數來處理這個事件。
2.1 應用場景
- 場景:長途客車在路途上,有人上車有人下車,但是乘客總是希望能夠在客車上得到休息。
- 傳統做法:每隔一段時間(或每一個站),司機或售票員對每一個乘客詢問是否下車。
- Reactor做法:汽車是乘客訪問的主體(Reactor),乘客上車后,到售票員(acceptor)處登記,之后乘客便可以休息睡覺去了,當到達乘客所要到達的目的地時(指定的事件發生,乘客到了下車地點),售票員將其喚醒即可。
2.2 更加形象例子
這部分內容主要來自:https://blog.csdn.net/russell_tao/article/details/17452997
https://blog.csdn.net/u013074465/article/details/46276967
傳統編程方法
就好像是到了銀行營業廳里,每個窗口前排了長隊,業務員們在窗口后一個個的解決客戶們的請求。一個業務員可以盡情思考着客戶A依次提出的問題,例如:
“我要買2萬XX理財產品。“
“看清楚了,5萬起售。”
“等等,查下我活期余額。”
“余額5萬。”
“那就買 5萬吧。”
業務員開始錄入信息。
”對了,XX理財產品年利率8%?”
“是預期8%,最低無利息保本。“
”早不說,拜拜,我去買余額寶。“
業務員無表情的刪着已經錄入的信息進行事務回滾。
“下一個!”
IO復用方法
用了IO復用則是大師業務員開始挑戰極限,在超大營業廳里給客戶們人手一個牌子,黑壓壓的客戶們都在大廳中,有問題時舉牌申請提問,大師目光敏銳點名指定某人提問,該客戶迅速得到大師的答復后,要經過一段時間思考,查查自己的銀袋子,咨詢下LD,才能再次進行下一個提問,直到得到完整的滿意答復退出大廳。例如:大師剛指導A填寫轉帳單的某一項,B又來申請兌換泰銖,給了B兌換單后,C又來辦理定轉活,然后D與F在爭搶有限的圓珠筆時出現了不和諧現象,被大師叫停業務,暫時等待。
這就是基於事件驅動的IO復用編程比起傳統1線程1請求的方式來,有難度的設計點了,客戶們都是上帝,既不能出錯,還不能厚此薄彼。
當沒有Reactor時,我們可能的設計方法是這樣的:大師把每個客戶的提問都記錄下來,當客戶A提問時,首先查閱A之前問過什么做過什么,這叫聯系上下文,然后再根據上下文和當前提問查閱有關的銀行規章制度,有針對性的回答A,並把回答也記錄下來。當圓滿回答了A的所有問題后,刪除A的所有記錄。
2.3 在程序中
某一瞬間,服務器共有10萬個並發連接,此時,一次IO復用接口的調用返回了100個活躍的連接等待處理。先根據這100個連接找出其對應的對象,這並不難,epoll的返回連接數據結構里就有這樣的指針可以用。接着,循環的處理每一個連接,找出這個對象此刻的上下文狀態,再使用read、write這樣的網絡IO獲取此次的操作內容,結合上下文狀態查詢此時應當選擇哪個業務方法處理,調用相應方法完成操作后,若請求結束,則刪除對象及其上下文。
這樣,我們就陷入了面向過程編程方法之中了,在面向應用、快速響應為王的移動互聯網時代,這樣做早晚得把自己玩死。我們的主程序需要關注各種不同類型的請求,在不同狀態下,對於不同的請求命令選擇不同的業務處理方法。這會導致隨着請求類型的增加,請求狀態的增加,請求命令的增加,主程序復雜度快速膨脹,導致維護越來越困難,苦逼的程序員再也不敢輕易接新需求、重構。
Reactor是解決上述軟件工程問題的一種途徑,它也許並不優雅,開發效率上也不是最高的,但其執行效率與面向過程的使用IO復用卻幾乎是等價的,所以,無論是nginx、memcached、redis等等這些高性能組件的代名詞,都義無反顧的一頭扎進了反應堆的懷抱中。
Reactor模式可以在軟件工程層面,將事件驅動框架分離出具體業務,將不同類型請求之間用OO的思想分離。通常,Reactor不僅使用IO復用處理網絡事件驅動,還會實現定時器來處理時間事件的驅動(請求的超時處理或者定時任務的處理),就像下面的示意圖:
這幅圖有5點意思:
- 處理應用時基於OO思想,不同的類型的請求處理間是分離的。例如,A類型請求是用戶注冊請求,B類型請求是查詢用戶頭像,那么當我們把用戶頭像新增多種分辨率圖片時,更改B類型請求的代碼處理邏輯時,完全不涉及A類型請求代碼的修改。
- 應用處理請求的邏輯,與事件分發框架完全分離。什么意思呢?即寫應用處理時,不用去管何時調用IO復用,不用去管什么調用epoll_wait,去處理它返回的多個socket連接。應用代碼中,只關心如何讀取、發送socket上的數據,如何處理業務邏輯。事件分發框架有一個抽象的事件接口,所有的應用必須實現抽象的事件接口,通過這種抽象才把應用與框架進行分離。
- Reactor上提供注冊、移除事件方法,供應用代碼使用,而分發事件方法,通常是循環的調用而已,是否提供給應用代碼調用,還是由框架簡單粗暴的直接循環使用,這是框架的自由。
- IO多路復用也是一個抽象,它可以是具體的select,也可以是epoll,它們只必須提供采集到某一瞬間所有待監控連接中活躍的連接。
- 定時器也是由Reactor對象使用,它必須至少提供4個方法,包括添加、刪除定時器事件,這該由應用代碼調用。最近超時時間是需要的,這會被反應堆對象使用,用於確認select或者epoll_wait執行時的阻塞超時時間,防止IO的等待影響了定時事件的處理。遍歷也是由反應堆框架使用,用於處理定時事件。
2.4 Reactor的幾種模式
參考資料:http://gee.cs.oswego.edu/dl/cpjslides/nio.pdf
在web服務中,很多都涉及基本的操作:read request、decode request、process service、encod reply、send reply等。
1 單線程模式
這是最簡單的Reactor單線程模型。Reactor線程是個多面手,負責多路分離套接字,Accept新連接,並分派請求到處理器鏈中。該模型適用於處理器鏈中業務處理組件能快速完成的場景。不過這種單線程模型不能充分利用多核資源,所以實際使用的不多。

2 多線程模式(單Reactor)
該模型在事件處理器(Handler)鏈部分采用了多線程(線程池),也是后端程序常用的模型。
3 多線程模式(多個Reactor)
比起第二種模型,它是將Reactor分成兩部分,mainReactor負責監聽並accept新連接,然后將建立的socket通過多路復用器(Acceptor)分派給subReactor。subReactor負責多路分離已連接的socket,讀寫網絡數據;業務處理功能,其交給worker線程池完成。通常,subReactor個數上可與CPU個數等同。
三、Proacotr模型
Proactor是和異步I/O相關的。
在Reactor模式中,事件分離者等待某個事件或者可應用多個操作的狀態發生(比如文件描述符可讀寫,或者是socket可讀寫),事件分離器就把這個事件傳給事先注冊的處理器(事件處理函數或者回調函數),由后者來做實際的讀寫操作。
在Proactor模式中,事件處理者(或者代由事件分離者發起)直接發起一個異步讀寫操作(相當於請求),而實際的工作是由操作系統來完成的。發起時,需要提供的參數包括用於存放讀到數據的緩存區,讀的數據大小,或者用於存放外發數據的緩存區,以及這個請求完后的回調函數等信息。事件分離者得知了這個請求,它默默等待這個請求的完成,然后轉發完成事件給相應的事件處理者或者回調。
可以看出兩者的區別:Reactor是在事件發生時就通知事先注冊的事件(讀寫由處理函數完成);Proactor是在事件發生時進行異步I/O(讀寫由OS完成),待IO完成事件分離器才調度處理器來處理。
舉個例子,將有助於理解Reactor與Proactor二者的差異,以讀操作為例(類操作類似)。
在Reactor(同步)中實現讀:
- 注冊讀就緒事件和相應的事件處理器
- 事件分離器等待事件
- 事件到來,激活分離器,分離器調用事件對應的處理器。
- 事件處理器完成實際的讀操作,處理讀到的數據,注冊新的事件,然后返還控制權。
Proactor(異步)中的讀:
- 處理器發起異步讀操作(注意:操作系統必須支持異步IO)。在這種情況下,處理器無視IO就緒事件,它關注的是完成事件。
- 事件分離器等待操作完成事件
- 在分離器等待過程中,操作系統利用並行的內核線程執行實際的讀操作,並將結果數據存入用戶自定義緩沖區,最后通知事件分離器讀操作完成。
- 事件分離器呼喚處理器。
- 事件處理器處理用戶自定義緩沖區中的數據,然后啟動一個新的異步操作,並將控制權返回事件分離器。
四、常見的I/O編程框架
對比幾個常見的I/O編程框架:libevent,libev,libuv,aio,boost.Asio。
4.1 libevent
libevent是一個C語言寫的網絡庫,官方主要支持的是類linux操作系統,最新的版本添加了對windows的IOCP的支持。在跨平台方面主要通過select模型來進行支持。
設計模式 :libevent為Reactor模式;
層次架構:livevent在不同的操作系統下,做了多路復用模型的抽象,可以選擇使用不同的模型,通過事件函數提供服務;
可移植性 :libevent主要支持linux平台,freebsd平台,其他平台下通過select模型進行支持,效率不是太高;
事件分派處理 :libevent基於注冊的事件回調函數來實現事件分發;
涉及范圍 :libevent只提供了簡單的網絡API的封裝,線程池,內存池,遞歸鎖等均需要自己實現;
線程調度 :libevent的線程調度需要自己來注冊不同的事件句柄;
發布方式 :libevent為開源免費的,一般編譯為靜態庫進行使用;
開發難度 :基於libevent開發應用,相對容易,具體可以參考memcached這個開源的應用,里面使用了 libevent這個庫。
4.2 libev
libevent/libev是兩個名字相當相近的I/O Library。既然是庫,第一反應就是對api的包裝。epoll在linux上已經存在了很久,但是linux是SysV的后代,BSD及其衍生的MAC就沒有,只有kqueue。
libev v.s libevent。既然已經有了libevent,為什么還要發明一個輪子叫做libev?
http://www.cnblogs.com/Lifehacker/p/whats_the_difference_between_libevent_and_libev_chinese.html
http://stackoverflow.com/questions/9433864/whats-the-difference-between-libev-and-libevent
上面是libev的作者對於這個問題的回答,下面是網摘的中文翻譯:
就設計哲學來說,libev的誕生,是為了修復libevent設計上的一些錯誤決策。例如,全局變量的使用,讓libevent很難在多線程環境中使用。watcher結構體很大,因為它們包含了I/O,定時器和信號處理器。額外的組件如HTTP和DNS服務器,因為拙劣的實現品質和安全問題而備受折磨。定時器不精確,而且無法很好地處理時間跳變。
總而言之,libev試圖做好一件事而已(目標是成為POSIX的事件庫),這是最高效的方法。libevent則嘗試給你全套解決方案(事件庫,非阻塞IO庫,http庫,DNS客戶端)libev 完全是單線程的,沒有DNS解析。
libev解決了epoll, kqueuq等API不同的問題。保證使用livev的程序可以在大多數 *nix 平台上運行(對windows不太友好)。但是 libev 的缺點也是顯而易見,由於基本只是封裝了 Event Library,用起來有諸多不便。比如 accept(3) 連接以后需要手動 setnonblocking 。從 socket 讀寫時需要檢測 EAGAIN 、EWOULDBLOCK 和 EINTER 。這也是大多數人認為異步程序難寫的根本原因。
4.3 libuv
libuv是Joyent給Node做的I/O Library。libuv 需要多線程庫支持,其在內部維護了一個線程池來 處理諸如getaddrinfo(3) 這樣的無法異步的調用。同時,對windows用戶友好,Windows下用IOCP實現,官網http://docs.libuv.org/en/v1.x/
4.4 boost.Asio
Boost.Asio類庫,其就是以Proactor這種設計模式來實現。
參見:Proactor(The Boost.Asio library is based on the Proactor pattern. This design note outlines the advantages and disadvantages of this approach.),
其設計文檔鏈接:http://asio.sourceforge.net/boost_asio_0_3_7/libs/asio/doc/design/index.html
http://stackoverflow.com/questions/11423426/how-does-libuv-compare-to-boost-asio
4.5 linux aio
linux有兩種aio(異步機制),一是glibc提供的(bug很多,幾乎不可用),一是內核提供的(BSD/mac也提供)。當然,機制不等於編程框架。
最后,本文介紹的同步Reactor模型比較多,后面的章節會以boost.Asio庫為基礎講解為什么需要異步編程