1、將hadoop-2.7.5.tar.gz上傳到/opt目錄下並解壓縮到/usr目錄下
tar -zxvf hadoop-2.7.5.tar.gz -C /usr #修改文件名 mv hadoop-2.7.5 hadoop
2、修改配置文件
vim /etc/profile //添加以下內容 export HADOOP_HOME=/usr/hadoop export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH //保存配置 source /etc/profile
查看Hadoop目錄結構:
- bin目錄:存放對Hadoop相關服務(hdfs,yarn,mapred)進行操作的腳本;
-
etc目錄:Hadoop的配置文件目錄,存放Hadoop的配置文件;
-
lib目錄:存放Hadoop的本地庫(對數據進行壓縮解壓縮功能);
-
sbin目錄:存放啟動或停止Hadoop相關服務的腳本;
-
share目錄:存放Hadoop的依賴jar包、文檔、和官方案例。
3、編輯hadoop/etc/hadoop/hadoop-env.sh文件,修改JAVA_HOME值對應到jdk安裝目錄
export JAVA_HOME=/usr/opt/jdk1.8.0_301
下面是配置Hadoop,在/opt/hadoop/etc/hadoop子目錄下:
4、配置核心組件文件core-site.xml:
<configuration>
<property>
<name>fs.defaultFS</name> //配置節點地址和端口號
<value>hdfs://192.168.71.129:9000</value> //格式必須是host:port形式
</property>
<property>
<name>hadoop.tmp.dir</name> //Hadoop臨時目錄用來存放臨時文件
<value>/usr/hadoop/hadoopdata</value> //該目錄需要預先手工創建
</property>
<property>
<name>hadoop.proxyuser.spark.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.spark.groups</name>
<value>*</value>
</property>
</configuration>
5、配置文件系統hdfs-site.xml
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.71.129:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/hadoop/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/hadoop/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
6、配置Yarn文件yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>192.168.71.129:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>192.168.71.129:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>192.168.71.129:8035</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>192.168.71.129:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>192.168.71.129:8088</value> </property> </configuration>
7、配置MapReduce計算框架文件mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>192.168.71.129:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>192.168.71.129:19888</value> </property> </configuration>
8、若做集群還需要配置slaves文件vim slaves
//根據從機ip配置,例如:已經安裝了slave0和slave1,並且計划將它們全部投入Hadoop集群運行。 192.168.71.130 192.168.71.131
注意:刪除slaves文件中原來localhost那一行!
9、復制主機master上的Hadoop到slave節點
scp -r /opt/hadoop root@slave0:/opt
scp -r /opt/hadoop root@slave1:/opt
10、創建Hadoop數據目錄
mkdir /usr/hadoop/hadoopdata
11、啟動/關閉Hadoop
cd /opt/hadoop/sbin //啟動 start-all.sh //關閉 stop-all.sh