1.上傳spark-2.2.2-bin-hadoop2.7.tgz
2.解壓文件
tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /usr/local/
3.進入conf/下把spark-env.sh.template改為spark-env.sh
cd /usr/local/spark-2.2.2-bin-hadoop2.7/conf/
mv spark-env.sh.template spark-env.sh
4.修改配置文件 spark-env.sh
1.編輯 spark-env.sh
vi spark-env.sh
2.修改內容如下
export JAVA_HOME=/usr/local/jdk1.8.0_211
export SPARK_MASTER_HOST=hadoop01
export SPARK_MASTER_PORT=7077
5.把slaves.template改為slaves
mv slaves.template slaves
6.修改配置文件slaves
1.編輯 slaves
vim slaves
2.修改內容如下
hadoop02
hadoop03
7.配置環境變量
1.編輯
vim /etc/profile
2.內容如下
export SPARK_HOME=/usr/local/spark-2.2.2-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
3.重置環境變量
source /etc/profile
8.分發到其他節點
scp -r /usr/local/spark-2.2.2-bin-hadoop2.7 hadoop02:/usr/local/
scp -r /usr/local/spark-2.2.2-bin-hadoop2.7 hadoop03:/usr/local/
9.OK