Spark2.1.0分布式集群安裝


一、依賴文件安裝

    1.1 JDK

         參見博文:http://www.cnblogs.com/liugh/p/6623530.html

    1.2 Hadoop

         參見博文:http://www.cnblogs.com/liugh/p/6624872.html

    1.3 Scala

         參見博文:http://www.cnblogs.com/liugh/p/6624491.html

二、文件准備

     2.1 文件名稱

         spark-2.1.0-bin-hadoop2.7.tgz

     2.2 下載地址

        http://spark.apache.org/downloads.html

三、工具准備

    3.1 Xshell

      一個強大的安全終端模擬軟件,它支持SSH1, SSH2, 以及Microsoft Windows 平台的TELNET 協議。

      Xshell 通過互聯網到遠程主機的安全連接以及它創新性的設計和特色幫助用戶在復雜的網絡環境中享受他們的工作。

    3.2 Xftp

     一個基於 MS windows 平台的功能強大的SFTPFTP 文件傳輸軟件。

    使用了 Xftp 以后,MS windows 用戶能安全地在UNIX/Linux 和 Windows PC 之間傳輸文件。

四、部署圖

五、Spark安裝

    以下操作,均使用root用戶

   5.1 通過Xftp將下載下來的Spark安裝文件上傳到Master及兩個Slave的/usr目錄下

   5.2 通過Xshell連接到虛擬機,在Master及兩個Slave上,執行如下命令,解壓文件:

        # tar zxvf spark-2.1.0-bin-hadoop2.7.tgz 

   5.3 在Master上,使用Vi編輯器,設置環境變量

        # vi /etc/profile

        在文件最后,添加如下內容:       

#Spark Env
export SPARK_HOME=/usr/spark-2.1.0
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

   5.4 退出vi編輯器,使環境變量設置立即生效

       # source /etc/profile

       通過scp命令,將/etc/profile拷貝到兩個Slave節點:

       #scp /etc/profile root@DEV-SH-MAP-02:/etc

       #scp /etc/profile root@DEV-SH-MAP-03:/etc

       分別在兩個Salve節點上執行# source /etc/profile使其立即生效

六、Spark配置

    以下操作均在Master節點,配置完后,使用scp命令,將配置文件拷貝到兩個Worker節點即可。

   切換到/usr/spark-2.1.0/conf/目錄下,修改如下文件:

   6.1 spark-env.sh

    將spark-env.sh.template重命名為spark-env.sh

    #mv spark-env.sh.template spark-env.sh

    使用vi編輯器,打開spark-env.sh,在文件最后,添加如下內容:

export JAVA_HOME=/usr/jdk1.8.0_121
export SCALA_HOME=/usr/scala-2.12.1
export SPARK_MASTER_IP=10.10.0.1
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/usr/hadoop-2.7.3/etc/hadoop

   6.2 slaves

    將slaves.template重命名為slaves

    #mv slaves.template slaves

    使用vi編輯器,打開slaves,在文件最后,添加如下內容:

DEV-SH-MAP-01
DEV-SH-MAP-02
DEV-SH-MAP-03

  6.3 拷貝配置文件到兩個Worker節點

   在Master節點,執行如下命令:   

   # scp -r /usr/spark-2.1.0/conf/ root@DEV-SH-MAP-02:/usr/spark-2.1.0/

   # scp -r /usr/spark-2.1.0/conf/ root@DEV-SH-MAP-03:/usr/spark-2.1.0/

七、Spark使用

   7.1 啟動Hadoop集群

       參見博文:http://www.cnblogs.com/liugh/p/6624872.html

  7.2 啟動Master節點

      Master節點上,執行如下命令:

      #start-master.sh

     使用jps命令,查看Java進程:

34225 SecondaryNameNode
33922 NameNode49702 Jps
34632 NodeManager
34523 ResourceManager
34028 DataNode
36415 Master

  7.3 啟動Worker節點

      Master節點上,執行如下命令:

      #start-slaves.sh

     使用jps命令,查看Java進程:

34225 SecondaryNameNode
33922 NameNode
36562 Worker
49702 Jps
34632 NodeManager
34523 ResourceManager
34028 DataNode
36415 Master

  7.4 通過瀏覽器查看Spark信息

    瀏覽器中,輸入http://10.10.0.1:8080

   7.5 停止Master及Workder節點

     #stop-master.sh

     #stop-slaves.sh


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM