Spark分布式集群的搭建和運行


集群共三台CentOS虛擬機,一個Matser,主機名為master;三個Worker,主機名分別為master、slave03、slave04。前提是Hadoop和Zookeeper已經安裝並且開始運行。

1. 在master上下載Scala-2.11.0.tgz,復制到/opt/下面,解壓,在/etc/profile加上語句:

export SCALA_HOME=/opt/scala-2.11.0
export PATH=$PATH:$SCALA_HOME/bin

然后運行命令:

source /etc/profile

在slave03、slave04上也執行相同的操作。

2. 在master上下載spark-2.1.0-bin-hadoop2.6,復制到/opt/下面。解壓,在/etc/profile加上語句:

export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

然后運行命令:

source /etc/profile

3. 編輯${SPARK_HOME}/conf/spark-env.sh文件,增加下面的語句:

# JAVA_HOME
export JAVA_HOME=/opt/jdk1.8.0_121
# SCALA_HOME
export SCALA_HOME=/opt/scala-2.11.0
# SPARK_HOME
export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6
# Master主機名
export SPARK_MASTER_HOST=master
# Worker的內存大小
export SPARK_WORKER_MEMORY=1g
# Worker的Cores數量
export SPARK_WORKER_CORES=1
# SPARK_PID路徑
export SPARK_PID_DIR=$SPARK_HOME/tmp
# Hadoop配置文件路徑
export HADOOP_CONF_DIR=/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop
# Spark的Recovery Mode、Zookeeper URL和路徑
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:12181,slave03:12181,slave04:12181 -Dspark.deploy.zookeeper.dir=/spark"

在${SPARK_HOME}/conf/slaves中增加:

matser
slave03
slave04

這樣就設置了三個Worker。

修改文件結束以后,將${SPARK_HOME}用scp復制到slave03和slave04。

4. 在master上進入${SPARK_HOME}/sbin路徑,運行:

./start-master.sh

這是啟動Master。

再運行:

./start-slaves.sh

這是啟動Worker。

5. 在master上運行jps,如果有Master和Worker表明啟動成功:

在slave03、slave04上運行jps,有Worker表明啟動成功:

6. 訪問http://master:8081,出現下面的頁面表明啟動成功:


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM