原文:Spark源碼分析 – BlockManager

參考, Spark源碼分析之 Storage模塊 對於storage, 為何Spark需要storage模塊 為了cache RDD Spark的特點就是可以將RDD cache在memory或disk中,RDD是由partitions組成的,對應於block 所以storage模塊,就是要實現RDD在memory和disk上的persistent功能 首先每個節點都有一個BlockManager ...

2014-01-10 11:19 2 4455 推薦指數:

查看詳情

Spark源碼分析 – Checkpoint

CP的步驟 1. 首先如果RDD需要CP, 調用RDD.checkpoint()來mark 注釋說了, 這個需要在Job被執行前被mark, 原因后面看, 並且最好選擇persist這個RDD, ...

Sat Jan 11 02:24:00 CST 2014 7 2936
Spark源碼分析 – SparkContext

Spark源碼分析之-scheduler模塊 這位寫的非常好, 讓我對Spark源碼分析, 變的輕松了許多 這里自己再梳理一遍 先看一個簡單的spark操作, 1. SparkContext 這是Spark的入口, 任何需要使用Spark的地方都需要先創建 ...

Wed Dec 25 02:03:00 CST 2013 2 7913
Spark源碼分析 – Shuffle

參考詳細探究Spark的shuffle實現, 寫的很清楚, 當前設計的來龍去脈 Hadoop Hadoop的思路是, 在mapper端每次當memory buffer中的數據快滿的時候, 先將memory中的數據, 按partition進行划分, 然后各自存成小文件, 這樣當buffer ...

Thu Jan 16 19:34:00 CST 2014 0 7206
Spark源碼分析Spark Shell(上)

終於開始看Spark源碼了,先從最常用的spark-shell腳本開始吧。不要覺得一個啟動腳本有什么東東,其實里面還是有很多知識點的。另外,從啟動腳本入手,是尋找代碼入口最簡單的方法,很多開源框架,其實都可以通過這種方式來尋找源碼入口。 先來介紹一下Spark-shell是什么 ...

Sat Feb 18 18:37:00 CST 2017 0 4241
Spark 源碼分析 -- RDD

關於RDD, 詳細可以參考Spark的論文, 下面看下源碼 A Resilient Distributed Dataset (RDD), the basic abstraction in Spark. Represents an immutable, partitioned collection ...

Tue Dec 24 23:19:00 CST 2013 0 5627
Spark源碼分析 – SparkEnv

SparkEnv在兩個地方會被創建, 由於SparkEnv中包含了很多重要的模塊, 比如BlockManager, 所以SparkEnv很重要 Driver端, 在SparkContext初始化的時候, SparkEnv會被創建 Executor端, 在executor初始化 ...

Mon Jan 13 18:54:00 CST 2014 10 2117
Spark源碼分析 – DAGScheduler

DAGScheduler的架構其實非常簡單, 1. eventQueue, 所有需要DAGScheduler處理的事情都需要往eventQueue中發送event 2. eventLoop Thr ...

Mon Dec 30 23:32:00 CST 2013 4 2404
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM