選擇版本和type,這里為 spark-2.4.4-bin-without-hadoop.tgz
1.1 命令下載:
1 cd ~/software 2 wget http://apache.communilink.net/spark/spark-2.4.4/spark-2.4.4-bin-without-hadoop.tgz
1 tar -xzvf spark-2.4.4-bin-without-hadoop.tgz 2 mv spark-2.4.4-bin-without-hadoop.tgz spark
使用vim編輯~/.bashrc文件,加入以下配置(目錄換成自己的安裝目錄):
1 export SPARK_HOME=/software/spark 2 export PATH=$PATH:$SPARK_HOME/bin
可以使用echo $PATH 輸出查看是否正確
2. 簡單配置
2.1 安裝scala並配置環境變量
2.2 配置spark-env.sh變量環境
位置: $SPARK_HOME/conf/spark-env.sh.template
命令:
1 cd /software/spark/conf 2 # 復制並重命名 3 cp spark-env.sh.template spark-env.sh 4 vim spark-env.sh
1 # hadoop java scala等須安裝好並配置好 環境變量 2 export JAVA_HOME=/usr/local/java/jdk1.8 3 export SCALA_HOME=/software/scala 4 export SPARK_HOME=/software/spark 5 # 單機版配置為本機 ip 6 export SPARK_MASTER_IP=127.0.0.1 7 export SPARK_EXECUTOR_MEMORY=1G 8 export SPARK_DIST_CLASSPATH=$(hadoop classpath)
文件位置: $SPARK_HOME/conf/slaves.template
命令:
1 cd /software/spark/conf 2 # 復制並重命名 3 cp slaves.template slaves 4 vim slaves
1 localhost
在 $SPARK_HOME/examples/src/main 目錄下有一些 Spark 的示例程序,有 Scala、Java、Python、R 等語言的版本。我們可以先運行一個示例程序 SparkPi(即計算 π 的近似值),執行如下命令:
1 [root@VM_0_8_centos spark]# ./bin/run-example SparkPi 2>&1 | grep "Pi is roughly" 2 Pi is roughly 3.1369756848784243 3 [root@VM_0_8_centos spark]#
2.5 啟動/停止:
1 # 啟動shell 2 spark-shell 3 4 # 關閉 5 ctrl+d