System Architecture
分布式系統需要解決:分配和管理在集群的計算資源、處理配合、持久和可訪問的數據存儲、失敗恢復。Fink專注分布式流處理。
Components of a Flink Setup
- JobManager :接受application,包含StreamGraph(DAG)、JobGraph(logical dataflow graph,已經進過優化,如task chain)和JAR,將JobGraph轉化為ExecutionGraph(physical dataflow graph,並行化),包含可以並發執行的tasks。其他工作類似Spark driver,如向RM申請資源、schedule tasks、保存作業的元數據,如checkpoints。如今JM可分為JobMaster和ResourceManager(和下面的不同),分別負責任務和資源,在Session模式下啟動多個job就會有多個JobMaster。
- ResourceManager:一般是Yarn,當TM有空閑的slot就會告訴JM,沒有足夠的slot也會啟動新的TM。kill掉長時間空閑的TM。
- TaskManager類似Spark的executor,會跑多個線程的task、數據緩存與交換。
- Dispatcher(Application Master)提供REST接口來接收client的application提交,它負責啟動JM和提交application,同時運行Web UI。
task是最基本的調度單位,由一個線程執行,里面包含一個或多個operator。多個operators就成為operation chain,需要上下游並發度一致,且傳遞模式(之前的Data exchange strategies)是forward。
slot是TM的資源子集。結合下面Task Execution的圖,一個slot並不代表一個線程,它里面並不一定只放一個task。多個task在一個slot就涉及slot sharing group。一個jobGraph的任務需要多少slot,取決於最大的並發度,這樣的話,並發1和並發2就不會放到一個slot中。Co-Location Group是在此基礎上,數據的forward形式,即一個slot中,如果它處理的是key1的數據,那么接下來的task也是處理key1的數據,此時就達到Co-Location Group。
盡管有slot sharing group,但一個group里串聯起來的task各自所需資源的大小並不好確定。阿里日常用得最多的還是一個task一個slot的方式。
Session模式(上圖):預先啟動好AM和TM,每提交一個job就啟動一個Job Manager並向Flink的RM申請資源,不夠的話,Flink的RM向YARN的RM申請資源。適合規模小,運行時間短的作業。./bin/flink run ./path/to/job.jar
Job模式:每一個job都重新啟動一個Flink集群,完成后結束Flink,且只有一個Job Manager。資源按需申請,適合大作業。./bin/flink run -m yarn-cluster ./path/to/job.jar
下面是簡單例子,詳細看官網。
# 啟動yarn-session,4個TM,每個有4GB堆內存,4個slot
cd flink-1.7.0/
./bin/yarn-session.sh -n 4 -jm 1024m -tm 4096m -s 4
# 啟動作業
./bin/flink run -m yarn-cluster -yn 4 -yjm 1024m -ytm 4096m ./examples/batch/WordCount.jar
細節取決於具體環境,如不同的RM
Application Deployment
Framework模式:Flink作業為JAR,並被提交到Dispatcher or JM or YARN。
Library模式:Flink作業為application-specific container image,如Docker image,適合微服務。
Task Execution
作業調度:在流計算中預先啟動好節點,而在批計算中,每當某個階段完成計算才啟動下一個節點。
資源管理:slot作為基本單位,有大小和位置屬性。JM有SlotPool,向Flink RM申請Slot,FlinkRM發現自己的SlotManager中沒有足夠的Slot,就會向集群RM申請。后者返回可用TM的ip,讓FlinkRM去啟動,TM啟動后向FlinkRM注冊。后者向TM請求Slot,TM向JM提供相應Slot。JM用完后釋放Slot,TM會把釋放的Slot報告給FlinkRM。在Blink版本中,job模式會根據申請slot的大小分配相應的TM,而session模式則預先設置好TM大小,每有slot申請就從TM中划分相應的資源。
任務可以是相同operator (data parallelism),不同 operator (task parallelism),甚至不同application (job parallelism)。TM提供一定數量的slots來控制並行的任務數。
上圖A和C是source function,E是sink function,小數字表示並行度。
一個TM是一個JVM進程,它通過多線程完成任務。線程的隔離不太好,一個線程失敗有可能導致整個TM失敗。
Highly-Available Setup
從失敗中恢復需要重啟失敗進程、作業和恢復它的state。
當一個TM掛掉而RM又無法找到空閑的資源時,就只能暫時降低並行度,直到有空閑的資源重啟TM。
當JM掛掉就靠ZK來重新選舉,和找到JM存儲到遠程storage的元數據、JobGraph。重啟JM並從最后一個完成的checkpoint開始。
JM在執行期間會得到每個task checkpoints的state存儲路徑(task將state寫到遠程storage)並寫到遠程storage,同時在ZK的存儲路徑留下pointer指明到哪里找上面的存儲路徑。
背壓
數據涌入的速度大於處理速度。在source operator中,可通過Kafka解決。在任務間的operator有如下機制應對:
Local exchange:task1和2在同一個工作節點,那么buffer pool可以直接交給下一個任務,但下一個任務task2消費buffer pool中的信息速度減慢時,當前任務task1填充buffer pool的速度也會減慢。
Remote exchange:TM保證每個task至少有一個incoming和一個outgoing緩沖區。當下游receiver的處理速度低於上有的sender的發送速度,receiver的incoming緩沖區就會開始積累數據(需要空閑的buffer來放從TCP連接中接收的數據),當擠滿后就不再接收數據。上游sender利用netty水位機制,當網絡中的緩沖數據過多時暫停發送。
Data Transfer in Flink
TM負責數據在tasks間的轉移,轉移之前會存儲到buffer(這又變回micro-batches)。每個TM有32KB的網絡buffer用於接收和發送數據。如果sender和receiver在不同進程,那么會通過操作系統的網絡棧來通信。每對TM保持permanent TCP連接來交換數據。每個sender任務能夠給所有receiving任務發送數據,反之,所有receiver任務能夠接收所有sender任務的數據。TM保證每個任務都至少有一個incoming和outgoing的buffer,並增加額外的緩沖區分配約束來避免死鎖。
如果sender和receiver任務在同一個TM進程,sender會序列化結果數據到buffer,如果滿了就放到隊列。receiver任務通過隊列得到數據並進行反序列化。這樣的好處是解耦任務並允許在任務中使用可變對象,從而減少了對象實例化和垃圾收集。一旦數據被序列化,就能安全地修改。而缺點是計算消耗大,在一些條件下能夠把task穿起來,避免序列化。(C10)
Flow Control with Back Pressure
receiver放到緩沖區的數據變為隊列,sender將要發送的數據變為隊列,最后sender減慢發送速度。
Event Time Processing
event time處理的數據必須有時間戳(Long unix timestamp)並定義了watermarks。watermark是一種特殊的records holding a timestamp long value。它必須是遞增的(防止倒退),有一個timestamp t(下圖的5),暗示所有接下來的數據都會大於這個值。后來的,小於這個值,就被視為遲來數據,Flink有其他機制處理。
Watermarks and Event Time
WM在Flink是一種特殊的record,它會被operator tasks接收和釋放。
tasks有時間服務來維持timers(timers注冊到時間服務上),在time-window task中,timers分別記錄了各個window的結束時間。當任務獲得一個watermark時,task會根據這個watermark的timestamp更新內部的event-time clock。任務內部的時間服務確定所有timers時間是否小於watermark的timestamp,如果大於則觸發call-back算子來釋放記錄並返回結果。最后task還會將更新的event-time clock的WM進行廣播。(結合下圖理解)
只有ProcessFunction可以讀取和修改timestamp或者watermark(The ProcessFunction
can read the timestamp of a currently processed record, request the current event-time of the operator, and register timers)。下面是PF的行為。
當收到WM大於所有目前擁有的WM,就會把event-time clock更新為所有WM中最小的那個,並廣播這個最小的WM。即便是多個streams輸入,機制也一樣,只是增加Paritition WM數量。這種機制要求獲得的WM必須是累加的,而且task必須有新的WM接收,否則clock就不會更新,task的timers就不會被觸發。另外,當多個streams輸入時,timers會被WM比較離散的stream主導,從而使更密集的stream的state不斷積累。
Timestamp Assignment and Watermark Generation
當streaming application消化流時產生。Flink有三種方式產生:
- SourceFunction:產生的record帶有timestamp,一些特殊時點產生WM。如果SF暫時不再發送WM,則會被認為是idle。Flink會從接下來的watermark operators中排除由這個SF生產的分區(上圖有4個分區),從而解決timer不觸發的問題。
AssignerWithPeriodicWatermarks
提取每條記錄的timestamp,並周期性的查詢當前WM,即上圖的Partition WM。AssignerWithPunctuatedWatermarks
可以從每條數據提取WM。
上面兩個User-defined timestamp assignment functions通常用在source operator附近,因為stream一經處理就很難把握record的時間順序了。所以UDF可以修改timestamp和WM,但在數據處理時使用不是一個好主意。
State Management
由任務維護並用於計算函數結果的所有數據都屬於任務的state。其實state可以理解為task業務邏輯的本地或實例變量。
在Flink,state總是和特定的operator關聯。operator需要注冊它的state,而state有兩種類型:
- Operator State:由同一並行任務處理的所有記錄都可以訪問相同的state,而其他的task或operator不能訪問,即一個task專屬一個state。這種state有三種primitives
- List State represents state as a list of entries.
- Union List State同上,但在任務失敗和作業從savepoint重啟的行為不一樣
- Broadcast State(v1.5) 同樣一個task專屬一個state,但state都是一樣的(需要自己注意保持一致,對state更新時,實際上只對當前task的state進行更新。只有所有task的更新一樣時,即輸入數據一樣(一開始廣播所以一樣,但數據的順序可能不一樣),對數據的處理一樣,才能保證state一樣)。這種state只能存儲在內存,所以沒有RockDB backend。
- Keyed State:相同key的record共享一個state。
- Value State:每個key一個值,這個值可以是復雜的數據結構.
- List State:每個key一個list
- Map State:每個key一個map
上面兩種state的存在方式有兩種:raw和managed,一般都是用后者,也推薦用后者(更好的內存管理、不需造輪子)。
State Backends
state backend決定了state如何被存儲、訪問和維持。它的主要職責是本地state管理和checkpoint state到遠程。在管理方面,可選擇將state存儲到內存還是磁盤。checkpoint方面在C8詳細介紹。
MemoryStateBackend, FsStateBackend, RocksDBStateBackend適合越來越大的state。都支持異步checkpoint,其中RocksDB還支持incremental的checkpoint。
- 注意:As RocksDB’s JNI bridge API is based on byte[], the maximum supported size per key and per value is 2^31 bytes each. IMPORTANT: states that use merge operations in RocksDB (e.g. ListState) can silently accumulate value sizes > 2^31 bytes and will then fail on their next retrieval. This is currently a limitation of RocksDB JNI.
Scaling Stateful Operators
Flink會根據input rate調整並發度。對於stateful operators有以下4種方式:
-
keyed state:根據key group來調整,即分為同一組的key-value會被分到相同的task
-
list state:所有list entries會被收集並重新均勻分布,當增加並發度時,要新建list
-
union list state:增加並發時,廣播整個list,所以rescaling后,所有task都有所有的list state。
- broadcast state
Checkpoints, Savepoints, and State Recovery
Flink’s Lightweight Checkpointing Algorithm
在分布式開照算法Chandy-Lamport的基礎上實現。有一種特殊的record叫checkpoint barrier(由JM產生),它帶有checkpoint ID來把流進行划分。在CB前面的records會被包含到checkpoint,之后的會被包含在之后的checkpoint。
當source task收到這種信息,就會停止發送recordes,觸發state backend對本地state的checkpoint,並廣播checkpoint ID到所有下游task。當checkpoint完成時,state backend喚醒source task,后者向JM確定相應的checkpoint ID已經完成任務。
當下游獲得其中一個CB時,就會暫停處理這個CB對應的source的數據(完成checkpoint后發送的數據),並將這些數據存到緩沖區,直到其他相同ID的CB都到齊,就會把state(下圖的12、8)進行checkpoint,並廣播CB到下游。直到所有CB被廣播到下游,才開始處理排隊在緩沖區的數據。當然,其他沒有發送CB的source的數據會繼續處理。
最后,當所有sink會向JM發送BC確定checkpoint已完成。
這種機制還有兩個優化:
- 當operator的state很大時,復制整個state並發送到遠程storage會很費時。而RocksDB state backend支持asynchronous and incremental的checkpoints。當觸發checkpoint時,backend會快照所有本地state的修改(直至上一次checkpoint),然后馬上讓task繼續執行。后台線程異步發送快照到遠程storage。
- 在等待其余CB時,已經完成checkpoint的source數據需要排隊。但如果使用at-least-once就不需要等了。但當所有CB到齊再checkpoint,存儲的state就已經包含了下一次checkpoint才記錄的數據。(如果是取最值這種state就無所謂)
Recovery from Consistent Checkpoints
上圖隊列中的7和6之所以能恢復,取決於數據源是否resettable,如Kafka,不會因為發送信息就把信息刪除。這才能實現處理過程的exactly-once state consistency(嚴格來講,數據還是被重復處理,但是在讀檔后重復的)。但是下游系統有可能接收到多個結果。這方面,Flink提供sink算子實現output的exactly-once,例如給checkpoint提交records釋放記錄。另一個方法是idempotent updates,詳細看C7。
Savepoints
checkpoints加上一些額外的元數據,功能也是在checkpoint的基礎上豐富。不同於checkpoints,savepoint不會被Flink自動創造(由用戶或者外部scheduler觸發創造)和銷毀。savepoint可以重啟不同但兼容的作業,從而:
- 修復bugs進而修復錯誤的結果,也可用於A/B test或者what-if場景。
- 調整並發度
- 遷移作業到其他集群、新版Flink
也可以用於暫停作業,通過savepoint查看作業情況。
參考
Stream Processing with Apache Flink by Vasiliki Kalavri; Fabian Hueske