spark集群搭建(三台虛擬機)——spark集群搭建(5)


!!!該系列使用三台虛擬機搭建一個完整的spark集群,集群環境如下:

virtualBox5.2、Ubuntu14.04、securecrt7.3.6_x64英文版(連接虛擬機)

jdk1.7.0、hadoop2.6.5、zookeeper3.4.5、Scala2.12.6、kafka_2.9.2-0.8.1、spark1.3.1-bin-hadoop2.6

第一篇:准備三台虛擬機環境,配置靜態IP,ssh免密碼登錄

第二篇:搭建hadoop集群

第三篇:搭建zookeeper集群

第四篇:搭建kafka集群

第五篇:搭建spark集群

本文在前面基礎上搭建spark

一、spark1

下面操作在spark1上:

1、spark(spark1.3.1-bin-hadoop2.6)下載解壓重命名

2、配置環境變量

export SPARK_HOME=/usr/local/bigdata/spark 
export PATH
=$PATH:$SPARK_HOME/bin
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

修改配置文件

1、spark-env.sh

$ cd ./spark/conf  #進入spark的conf目錄下
$ mv spark-env.sh.template spark-env.sh
$ vim spark-env.sh

添加如下配置

export JAVA_HOME=/usr/local/bigdata/jdk
export SCALA_HOME=/usr/local/bigdata/scala
export SPARK_MASTER_IP=192.168.43.XXX
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/usr/local/bigdata/hadoop/etc/hadoop

2、slaves

$ mv slaves.template slaves
$ vim slaves

添加三台主機名

spark1
spark2
spark3

二、spark2和spark3

1、拷貝spark到另外兩台機器上

root@spark1:/usr/local/bigdata# scp -r spark root@spark2://usr/local/bigdata/
root@spark1:/usr/local/bigdata# scp -r spark root@spark3://usr/local/bigdata/

2、同理配置spark2和spark3的環境變量,或者直接把環境變量文件拷貝過去

 三、啟動spark

進入spark的sbin目錄下,執行:

$ ./start-all.sh

此時查看jps,spark1上有Master

root@spark1:/usr/local/bigdata/spark/sbin# jps
3489 Worker
2972 NodeManager
2643 SecondaryNameNode
3541 Jps
2358 NameNode
3330 Master
2847 ResourceManager
2482 DataNode

spark2

root@spark2:/usr/local/bigdata# jps
2838 Jps
2579 NodeManager
2786 Worker
2486 DataNode

spark3

root@spark3:/usr/local/bigdata# jps
3988 Jps
3731 NodeManager
3936 Worker
3637 DataNode

瀏覽器輸入http://spark1:8080/

 

$ spark-shell  #進入shell

 

 

 

 

  

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM