Mac環境下安裝spark
由於spark是由scala編寫,而scala又是基於jvm環境的變成語言,所有首先要保證你的環境已經安裝了JDK8
1.安裝scala環境
brew install scala
安裝完成后檢查
scala -version查看是否安裝成功
2.安裝spark環境
http://spark.apache.org/downloads.html下載最新的spark包
解壓安裝包
tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz
3.配置環境變量
-
vim /etc/profile
-
export SCALA_HOME=/usr/local/Cellar/scala
-
export PATH=$PATH:$SCALA_HOME/bin
-
exportSPARK_HOME=/Users/sx/open-source/spark-2.3.0-bin-hadoop2.7
-
export PATH=$PATH:$SPARK_HOME/bin
4.啟動Spark
首先進入Spark目錄中的sbin子目錄運行如下腳本啟動Spark:
./start-all.sh
啟動后jps檢測master,worker全部啟動
5.使用spark shell 進行測試
到此說明mac下spark安裝成功