Spark入門教程收集


 
Spark教程
Apache Spark是一個開源集群計算框架。其主要目的是處理實時生成的數據。
Spark建立在Hadoop MapReduce的頂部。它被優化為在內存中運行,而Hadoop的MapReduce等替代方法將數據寫入計算機硬盤驅動器或從計算機硬盤驅動器寫入數據。因此,Spark比其他替代方案更快地處理數據。
 
Spark架構依賴於兩個抽象:
  • 彈性分布式數據集(RDD)
  • 有向無環圖(DAG)
scala> val data = sc.parallelize(List(10,20,30))
data: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24

scala> data.collect
res3: Array[Int] = Array(10, 20, 30)

scala> val abc = data.filter(x => x!=30)
 
Spark 編程指南
 
Spark SQL教程
 
Spark Overview
Programming Guides:
API Docs:
 
Quick Start
 
RDD Programming Guide
 
Spark 3.0.1 ScalaDoc
 
Apache Spark Examples
Additional Examples
Many additional examples are distributed with Spark:
 
 
 
 
史上最簡單的spark系列教程 | 完結


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM