spark集群搭建(三台虛擬機)——hadoop集群搭建(2)


!!!該系列使用三台虛擬機搭建一個完整的spark集群,集群環境如下:

virtualBox5.2、Ubuntu14.04、securecrt7.3.6_x64英文版(連接虛擬機)

jdk1.7.0、hadoop2.6.5、zookeeper3.4.5、Scala2.12.6、kafka_2.9.2-0.8.1、park1.3.1-bin-hadoop2.6

第一篇:准備三台虛擬機環境,配置靜態IP,ssh免密碼登錄

第二篇:搭建hadoop集群

第三篇:搭建zookeeper集群

第四篇:搭建kafka集群

第五篇:搭建spark集群

前面搭建了spark集群需要的系統環境,本文在前文基礎上搭建hadoop集群

一、配置幾個配置文件

hadoop的下載和配置只需在spark1上操作,然后拷貝到另外兩台機器上即可,下面的配置均在spark1上進行

$ cd /usr/local/bigdata/hadoop  #進入hadoop安裝目錄
$ cd ./etc/hadoop

1、core-site.xml

$ vim core-site.xml

添加如下,指定namenode的地址:

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://spark1:9000</value>
    </property>
</configuration>

2、hdfs-site.xml

$ vim hdfs-site.xml
<configuration>
    <property>
        <name>dfs.name.dir</name>
        <value>/usr/local/hadoop/data/namenode</value>
    </property>
    <property>
        <name>dfs.data.dir</name>
        <value>/usr/local/hadoop/data/datanode</value>
    </property>
     <property>
        <name>dfs.tmp.dir</name>
        <value>/usr/local/hadoop/data/tmp</value>
     </property>   
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
</configuration>

3、mapred-site.xml,指定hadoop運行在yarn之上

$ mv mapred-site.xml.template mapred-site.xml
$ vim mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

4、yarn-site.xml

$ vim yarn-site.xml
<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>spark1</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

5、slaves

$ vim slaves
spark1
spark2
spark3

6、hadoop-env.sh

vim hadoop-env.sh

輸入jdk完整路徑

export JAVA_HOME=/usr/local/bigdata/jdk

二、另外兩台機器

使用拷貝命令將hadoop拷貝過去

$ cd /usr/local/bigdata
$ scp -r hadoop root@spark2:/usr/local/bigdata
$ scp -r hadoop root@spark3:/usr/local/bigdata
 
        

三、配置hadoop環境變量,三台機器均需要配置

export HADOOP_HOME=/usr/local/bigdata/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 
export HADOOP_COMMOM_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

四、啟動hadoop集群

格式化namenode

$ hdfs namenode -format
$ start-dfs.sh

此時三台機器啟動如下,才算成功

spark1

root@spark1:/usr/local/bigdata/hadoop/etc/hadoop# jps
4275 Jps
3859 NameNode
4120 SecondaryNameNode
3976 DataNode

spark2

root@spark2:/usr/local/bigdata/hadoop/etc/hadoop# jps
6546 DataNode
6612 Jps

spark3

root@spark3:/usr/local/bigdata/hadoop/etc/hadoop# jps
4965 DataNode
5031 Jps

進入瀏覽器,訪問http://spark1:50070

五、啟動yarn集群

$ start-yarn.sh

此時spark1

root@spark1:/usr/local/bigdata/hadoop/etc/hadoop# jps
3859 NameNode
4803 Jps
4120 SecondaryNameNode
3976 DataNode
4443 ResourceManager
4365 NodeManager

spark2

root@spark2:/usr/local/bigdata/hadoop/etc/hadoop# jps
6546 DataNode
6947 Jps
6771 NodeManager

spark3

root@spark3:/usr/local/bigdata/hadoop/etc/hadoop# jps
5249 Jps
4965 DataNode
5096 NodeManager

瀏覽器輸入 spark1:8088

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM