Spark安裝與部署


1.首先安裝scala(找到合適版本的具體地址下載)

在/usr/local/目錄下
wget https://www.scala-lang.org/download/****

2.安裝spark

(由於我的Hadoop是2.7.6版本的,因此我所用的spark是在官網上的適用hadoop-2以上版本的)
wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz
tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
rm spark-2.4.3-bin-hadoop2.7.tgz

3.配置環境變量

vim /etc/profile

4.刷新環境變量

source /etc/profile

5.復制配置文件

cp slaves.template slaves
cp spark-env.sh.template spark-env.sh

6.接着進行以下配置

vim /etc/profile(查看其它配置文件直接復制即可)
vim ./spark-2.4.3-bin-hadoop2.7/conf
vim spark-env.sh

7.啟動spark環境

1)先啟動Hadoop環境

/usr/local/hadoop-2.7.6/sbin/start-all.sh

2) 啟動Spark環境

/usr/local/spark-2.4.3-bin-hadoop2.7/sbin/start-all.sh

8.查看spark的web控制界面

顯示端口為7077

 

9.查看Hadoop的web端界面

 

10.驗證Spark是否安裝成功

bin/run-example SparkPi
注意:命令執行后出現一大堆東西,只需要從中找到下面這個圖中的東西,就說明安裝成功。
bin/run-example SparkPi 2>&1 | grep "Pi is"

11.使用Spark Shell編寫代碼

1)啟動Spark Shell

bin/spark-shell

2)加載text文件

spark創建sc,可以加載本地文件和HDFS文件創建RDD。這里用Spark自帶的本地文件README.md文件測試。
scala>val textFile=sc.textFile("file:///usr/local/spark-2.4.3-bin-hadoop2.7/README.md")
加載HDFS文件和本地文件都是使用textFile,區別是添加前綴(hdfs://和file://)進行標識。

3)簡單RDD操作

scala> textFile.first() // 獲取RDD文件textFile的第一行內容
scala> textFile.count() // 獲取RDD文件textFile的所有項的計數
scala> val lineWithSpark=textFile.filter(line=>line.contains("Spark"))// 抽取含有“Spark”的行,返回一個新的RDD
scala> lineWithSpark.count() //統計新的RDD的行數

4)可以通過組合RDD操作進行組合,可以實現簡易MapReduce操作

scala> textFile.map(line=>line.split(" ").size).reduce((a,b)=>if(a>b) a else b) //找出文本中每行的最多單詞數

5)退出Spark shell

:quit


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM