通過案例對 spark streaming 透徹理解三板斧之二:spark streaming運行機制


 

本期內容:

  1. Spark Streaming架構

  2. Spark Streaming運行機制

   

  Spark大數據分析框架的核心部件: spark Core、spark  Streaming流計算、GraphX圖計算、MLlib機器學習、Spark SQL、Tachyon文件系統、SparkR計算引擎等主要部件.

  

  Spark Streaming 其實是構建在spark core之上的一個應用程序,要構建一個強大的Spark應用程序 ,spark  Streaming是一個值得借鑒的參考,spark  Streaming涉及多個job交叉配合,基本涉及到了spark的所有的核心組件,精通掌握spark streaming是至關重要的。

 

  Spark Streaming基礎概念理解:

    1. 離散流:(Discretized Stream ,DStream):這是spark streaming對內部的持續的實時數據流的抽象描述,也即我們處理的一個實時數據流,在spark streaming中對應一個DStream ;

    2. 批數據:將實時流時間以時間為單位進行分批,將數據處理轉化為時間片數據的批處理;

    3. 時間片或者批處理時間間隔:邏輯級別的對數據進行定量的標准,以時間片作為拆分流數據的依據;

    4. 窗口長度:一個窗口覆蓋的流數據的時間長度。比如說要每隔5分鍾統計過去30分鍾的數據,窗口長度為6,因為30分鍾是batch interval 的6倍;

    5. 滑動時間間隔:比如說要每隔5分鍾統計過去30分鍾的數據,窗口時間間隔為5分鍾;

    6. input DStream :一個inputDStream是一個特殊的DStream 將spark streaming連接到一個外部數據源來讀取數據。

    7. Receiver :長時間(可能7*24小時)運行在Excutor之上,每個Receiver負責一個inuptDStream (比如讀取一個kafka消息的輸入流)。每個Receiver,加上inputDStream 會占用一個core/slot ;

    

  Spark Core處理的每一步都是基於RDD的,RDD之間有依賴關系。下圖中的RDD的DAG顯示的是有3個Action,會觸發3個job,RDD自下向上依賴,RDD產生job就會具體的執行。從DSteam Graph中可以看到,DStream的邏輯與RDD基本一致,它就是在RDD的基礎上加上了時間的依賴。RDD的DAG又可以叫空間維度,也就是說整個Spark Streaming多了一個時間維度,也可以成為時空維度。

  

 

  從這個角度來講,可以將Spark Streaming放在坐標系中。其中Y軸就是對RDD的操作,RDD的依賴關系構成了整個job的邏輯,而X軸就是時間。隨着時間的流逝,固定的時間間隔(Batch Interval)就會生成一個job實例,進而在集群中運行。

  對於Spark Streaming來說,當不同的數據來源的數據流進來的時候,基於固定的時間間隔,會形成一系列固定不變的數據集或event集合(例如來自flume和kafka)。而這正好與RDD基於固定的數據集不謀而合,事實上,由DStream基於固定的時間間隔行程的RDD Graph正是基於某一個batch的數據集的。

  從上圖中可以看出,在每一個Batch上,空間維度的RDD依賴關系都是一樣的,不同的是這個五個Batch流入的數據規模和內容不一樣,所以說生成的是不同的RDD依賴關系的實例,所以說RDD的Graph脫胎於DStream的Graph,也就是說DStream就是RDD的模板,不同的時間間隔,生成不同的RDD Graph實例。

 

  從源碼解讀DStream :

  

  從這里可以看出,DStream就是Spark Streaming的核心,就想Spark Core的核心是RDD,它也有dependency和compute。更為關鍵的是下面的代碼:

  這是一個HashMap,以時間為key,以RDD為Value,這也正應證了隨着時間流逝,不斷的生成RDD,產生依賴關系的job,並通過JbScheduler在集群上運行。再次驗證了DStream就是RDD的模版。

  DStream可以說是邏輯級別的,RDD就是物理級別的,DStream所表達的最終都是通過RDD的轉化實現的。前者是更高級別的抽象,后者是底層的實現。DStream實際上就是在時間維度上對RDD集合的封裝,DStream與RDD的關系就是隨着時間流逝不斷的產生RDD,對DStream的操作就是在固定時間上操作RDD。

 

  總結:

    在空間維度上的業務邏輯作用於DStream,隨着時間的流逝,每個Batch Interval形成了具體的數據集,產生了RDD,對RDD進行Transform操作,進而形成了RDD的依賴關系RDD DAG,形成Job。然后JobScheduler根據時間調度,基於RDD的依賴關系,把作業發布到Spark Cluster上去運行,不斷的產生Spark作業。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM