Hadoop安裝及配置


1、將hadoop-2.7.5.tar.gz上傳到/opt目錄下並解壓縮到/usr目錄下

tar -zxvf hadoop-2.7.5.tar.gz -C /usr
#修改文件名
mv hadoop-2.7.5 hadoop

2、修改配置文件

vim /etc/profile
//添加以下內容
export HADOOP_HOME=/usr/hadoop
export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

//保存配置
source /etc/profile

查看Hadoop目錄結構:

 

  1.  bin目錄:存放對Hadoop相關服務(hdfs,yarn,mapred)進行操作的腳本;
  2. etc目錄:Hadoop的配置文件目錄,存放Hadoop的配置文件;

  3. lib目錄:存放Hadoop的本地庫(對數據進行壓縮解壓縮功能);

  4. sbin目錄:存放啟動或停止Hadoop相關服務的腳本;

  5. share目錄:存放Hadoop的依賴jar包、文檔、和官方案例。

3、編輯hadoop/etc/hadoop/hadoop-env.sh文件,修改JAVA_HOME值對應到jdk安裝目錄

export JAVA_HOME=/usr/opt/jdk1.8.0_301

下面是配置Hadoop,在/opt/hadoop/etc/hadoop子目錄下:

4、配置核心組件文件core-site.xml:

<configuration>
  <property>
    <name>fs.defaultFS</name>   //配置節點地址和端口號
    <value>hdfs://192.168.71.129:9000</value>  //格式必須是host:port形式
  </property>
  <property>
    <name>hadoop.tmp.dir</name>  //Hadoop臨時目錄用來存放臨時文件
    <value>/usr/hadoop/hadoopdata</value>   //該目錄需要預先手工創建
  </property>
  <property>
    <name>hadoop.proxyuser.spark.hosts</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.spark.groups</name>
    <value>*</value>
  </property>
</configuration>

5、配置文件系統hdfs-site.xml

<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>192.168.71.129:9001</value>  
    </property>  
    <property>  
        <name>dfs.namenode.name.dir</name>  
        <value>file:/usr/hadoop/hdfs/name</value>                   
    </property>  
    <property>  
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/hadoop/hdfs/data</value>                 
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
</configuration>

6、配置Yarn文件yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>192.168.71.129:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>192.168.71.129:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>192.168.71.129:8035</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>192.168.71.129:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>192.168.71.129:8088</value>
    </property>
</configuration>

7、配置MapReduce計算框架文件mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>  
    </property>  
    <property>  
        <name>mapreduce.jobhistory.address</name>  
        <value>192.168.71.129:10020</value>  
    </property>  
    <property>  
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>192.168.71.129:19888</value>
    </property>
</configuration>

8、若做集群還需要配置slaves文件vim slaves

//根據從機ip配置,例如:已經安裝了slave0和slave1,並且計划將它們全部投入Hadoop集群運行。
192.168.71.130
192.168.71.131

注意:刪除slaves文件中原來localhost那一行!

9、復制主機master上的Hadoop到slave節點

scp -r /opt/hadoop root@slave0:/opt
scp -r /opt/hadoop root@slave1:/opt

10、創建Hadoop數據目錄

mkdir /usr/hadoop/hadoopdata

11、啟動/關閉Hadoop

cd /opt/hadoop/sbin

//啟動
start-all.sh
//關閉
stop-all.sh

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM