集群共三台CentOS虛擬機,一個Matser,主機名為master;三個Worker,主機名分別為master、slave03、slave04。前提是Hadoop和Zookeeper已經安裝並且開始運行。
1. 在master上下載Scala-2.11.0.tgz,復制到/opt/下面,解壓,在/etc/profile加上語句:
export SCALA_HOME=/opt/scala-2.11.0
export PATH=$PATH:$SCALA_HOME/bin
然后運行命令:
source /etc/profile
在slave03、slave04上也執行相同的操作。
2. 在master上下載spark-2.1.0-bin-hadoop2.6,復制到/opt/下面。解壓,在/etc/profile加上語句:
export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
然后運行命令:
source /etc/profile
3. 編輯${SPARK_HOME}/conf/spark-env.sh文件,增加下面的語句:
# JAVA_HOME
export JAVA_HOME=/opt/jdk1.8.0_121
# SCALA_HOME
export SCALA_HOME=/opt/scala-2.11.0
# SPARK_HOME
export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6
# Master主機名
export SPARK_MASTER_HOST=master
# Worker的內存大小
export SPARK_WORKER_MEMORY=1g
# Worker的Cores數量
export SPARK_WORKER_CORES=1
# SPARK_PID路徑
export SPARK_PID_DIR=$SPARK_HOME/tmp
# Hadoop配置文件路徑
export HADOOP_CONF_DIR=/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop
# Spark的Recovery Mode、Zookeeper URL和路徑
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:12181,slave03:12181,slave04:12181 -Dspark.deploy.zookeeper.dir=/spark"
在${SPARK_HOME}/conf/slaves中增加:
matser
slave03
slave04
這樣就設置了三個Worker。
修改文件結束以后,將${SPARK_HOME}用scp復制到slave03和slave04。
4. 在master上進入${SPARK_HOME}/sbin路徑,運行:
./start-master.sh
這是啟動Master。
再運行:
./start-slaves.sh
這是啟動Worker。
5. 在master上運行jps,如果有Master和Worker表明啟動成功:
在slave03、slave04上運行jps,有Worker表明啟動成功:
6. 訪問http://master:8081,出現下面的頁面表明啟動成功: