1.首先安裝scala(找到合適版本的具體地址下載)
在/usr/local/目錄下
wget https://www.scala-lang.org/download/****
2.安裝spark
(由於我的Hadoop是2.7.6版本的,因此我所用的spark是在官網上的適用hadoop-2以上版本的)
wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz rm spark-2.4.3-bin-hadoop2.7.tgz
3.配置環境變量
vim /etc/profile

4.刷新環境變量
source /etc/profile
5.復制配置文件
cp slaves.template slaves cp spark-env.sh.template spark-env.sh
6.接着進行以下配置
vim /etc/profile(查看其它配置文件直接復制即可) vim ./spark-2.4.3-bin-hadoop2.7/conf vim spark-env.sh

7.啟動spark環境
1)先啟動Hadoop環境
/usr/local/hadoop-2.7.6/sbin/start-all.sh
2) 啟動Spark環境
/usr/local/spark-2.4.3-bin-hadoop2.7/sbin/start-all.sh
8.查看spark的web控制界面
顯示端口為7077

9.查看Hadoop的web端界面

10.驗證Spark是否安裝成功
bin/run-example SparkPi
注意:命令執行后出現一大堆東西,只需要從中找到下面這個圖中的東西,就說明安裝成功。

bin/run-example SparkPi 2>&1 | grep "Pi is"

11.使用Spark Shell編寫代碼
1)啟動Spark Shell
bin/spark-shell

2)加載text文件
spark創建sc,可以加載本地文件和HDFS文件創建RDD。這里用Spark自帶的本地文件README.md文件測試。
scala>val textFile=sc.textFile("file:///usr/local/spark-2.4.3-bin-hadoop2.7/README.md")
加載HDFS文件和本地文件都是使用textFile,區別是添加前綴(hdfs://和file://)進行標識。
3)簡單RDD操作
scala> textFile.first() // 獲取RDD文件textFile的第一行內容 scala> textFile.count() // 獲取RDD文件textFile的所有項的計數

scala> val lineWithSpark=textFile.filter(line=>line.contains("Spark"))// 抽取含有“Spark”的行,返回一個新的RDD

scala> lineWithSpark.count() //統計新的RDD的行數

4)可以通過組合RDD操作進行組合,可以實現簡易MapReduce操作
scala> textFile.map(line=>line.split(" ").size).reduce((a,b)=>if(a>b) a else b) //找出文本中每行的最多單詞數

5)退出Spark shell
:quit
