原文:Spark源碼分析 -- PairRDD

和一般RDD最大的不同就是有兩個泛型參數, K, V 表示pair的概念 關鍵的function是, combineByKey, 所有pair相關操作的抽象 combine是這樣的操作, Turns an RDD K, V into a result of type RDD K, C 其中C有可能只是簡單類型, 但經常是seq, 比如 Int, Int to Int, Seq Int 下面來看看c ...

2013-12-24 15:21 1 3562 推薦指數:

查看詳情

Spark源碼分析Spark Shell(上)

終於開始看Spark源碼了,先從最常用的spark-shell腳本開始吧。不要覺得一個啟動腳本有什么東東,其實里面還是有很多知識點的。另外,從啟動腳本入手,是尋找代碼入口最簡單的方法,很多開源框架,其實都可以通過這種方式來尋找源碼入口。 先來介紹一下Spark-shell是什么 ...

Sat Feb 18 18:37:00 CST 2017 0 4241
Spark 源碼分析系列

如下,是 spark 相關系列的一些文章匯總,持續更新中...... Spark RPC spark 源碼分析之五--Spark RPC剖析之創建NettyRpcEnv spark 源碼分析之六--Spark RPC剖析之Dispatcher和Inbox、Outbox剖析 spark 源碼 ...

Mon Jul 29 00:58:00 CST 2019 0 1524
Spark Mllib源碼分析

1. Param   Spark ML使用一個自定義的Map(ParmaMap類型),其實該類內部使用了mutable.Map容器來存儲數據。 如下所示其定義: Class ParamMap private[ml] (private ...

Fri Sep 08 05:12:00 CST 2017 0 1555
Spark 源碼分析 -- RDD

關於RDD, 詳細可以參考Spark的論文, 下面看下源碼 A Resilient Distributed Dataset (RDD), the basic abstraction in Spark. Represents an immutable, partitioned collection ...

Tue Dec 24 23:19:00 CST 2013 0 5627
Spark源碼分析 – BlockManager

參考, Spark源碼分析之-Storage模塊 對於storage, 為何Spark需要storage模塊?為了cache RDD Spark的特點就是可以將RDD cache在memory或disk中,RDD是由partitions組成的,對應於block 所以storage模塊,就是要實現 ...

Fri Jan 10 19:19:00 CST 2014 2 4455
Spark源碼分析 – DAGScheduler

DAGScheduler的架構其實非常簡單, 1. eventQueue, 所有需要DAGScheduler處理的事情都需要往eventQueue中發送event 2. eventLoop Thr ...

Mon Dec 30 23:32:00 CST 2013 4 2404
Spark源碼系列(九)spark源碼分析以及優化

第一章、spark源碼分析之RDD四種依賴關系 一、RDD四種依賴關系 RDD四種依賴關系,分別是 ShuffleDependency、PrunDependency、RangeDependency和OneToOneDependency四種依賴關系。如下圖所示 ...

Wed May 27 23:44:00 CST 2020 0 592
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM