關於RDD, 詳細可以參考Spark的論文, 下面看下源碼 A Resilient Distributed Dataset (RDD), the basic abstraction in Spark. Represents an immutable, partitioned collection ...
http: jerryshao.me categories.html architecture ref http: blog.csdn.net pelick article details 如果想了解Spark的設計, 第一個足夠 如果想梳理Spark的源碼整體結構, 第二個也可以 ALL Spark源碼分析 SparkContext Spark源碼分析 SparkEnv Spark 源碼分析 t ...
2014-01-16 14:29 0 3722 推薦指數:
關於RDD, 詳細可以參考Spark的論文, 下面看下源碼 A Resilient Distributed Dataset (RDD), the basic abstraction in Spark. Represents an immutable, partitioned collection ...
參考, Spark源碼分析之-Storage模塊 對於storage, 為何Spark需要storage模塊?為了cache RDD Spark的特點就是可以將RDD cache在memory或disk中,RDD是由partitions組成的,對應於block 所以storage模塊,就是要實現 ...
時被創建 SparkEnv Class 用於hold所有Spark運行時的環境對象, ...
DAGScheduler的架構其實非常簡單, 1. eventQueue, 所有需要DAGScheduler處理的事情都需要往eventQueue中發送event 2. eventLoop Thr ...
終於開始看Spark源碼了,先從最常用的spark-shell腳本開始吧。不要覺得一個啟動腳本有什么東東,其實里面還是有很多知識點的。另外,從啟動腳本入手,是尋找代碼入口最簡單的方法,很多開源框架,其實都可以通過這種方式來尋找源碼入口。 先來介紹一下Spark-shell是什么 ...
第一章、spark源碼分析之RDD四種依賴關系 一、RDD四種依賴關系 RDD四種依賴關系,分別是 ShuffleDependency、PrunDependency、RangeDependency和OneToOneDependency四種依賴關系。如下圖所示 ...
CP的步驟 1. 首先如果RDD需要CP, 調用RDD.checkpoint()來mark 注釋說了, 這個需要在Job被執行前被mark, 原因后面看, 並且最好選擇persist這個RDD, ...
Spark源碼分析之-scheduler模塊 這位寫的非常好, 讓我對Spark的源碼分析, 變的輕松了許多 這里自己再梳理一遍 先看一個簡單的spark操作, 1. SparkContext 這是Spark的入口, 任何需要使用Spark的地方都需要先創建 ...