3.使用xshell進行配置Hadoop


一.預備准備

1.關閉防火牆

關閉防火牆的命令

systemctl stop firewalld.service    

關閉防火牆的開機自啟

systemctl disable firewalld.service

2.新建文件夾(放置安裝好的文件)

mkdir -p /opt/apps /opt/

3.解壓文件

輸入命令解壓java和Hadoop

tar -zxvf 地址/jdk-8u221-linux-x64.tar.gz -C /opt/apps/
tar -zxvf 地址/hadoop-2.7.7.tar.gz -C /opt/apps/

成功后如下圖

4.修改hosts文件

vim /etc/hosts

在末尾添加

主機IP 主機名

5.權限設置

vim /etc/sudoers

下插入

hadoop1  ALL=(ALL)       NOPASSWD:ALL

二.jdk配置

1.刪除原有java

查詢已經安裝的java

rpm -qa | grep java


命令刪除

rpm -e ** --nodeps

2.配置profile

進入profile

sudo vim /etc/profile

在末尾添加

export JAVA_HOME=/opt/apps/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin

更新profile

source /etc/profile

查看配置是否成功

java -version 

如圖成功

3.拍攝快照(防止后面操作失誤【可不進行】)

三.配置hdoop的profile

進入profile

sudo vim /etc/profile

末尾添加

export HADOOP_HOME=/opt/apps/hadoop-2.7.7
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin


刷新配置

source /etc/profile

驗證hadoop是否配置成功

hadoop version

四.克隆虛擬機

1.更改主機名

hostnamectl set-hostname xxx  



重復修改剩下的主機

2.更改網絡IP

vi /etc/sysconfig/network-scripts/ifcfg-ens33


更新網絡

service network restart 

重復修改剩下的主機

五.配置ssh免密

生成公鑰

ssh-keygen -t rsa  

全部回車

拷貝公鑰

ssh-copy-id 要拷貝到的機器ip

完成主節點通從節點,從節點通主節點

測試是否成功

六.配置hdoop

進入hadoop配置文件處

cd /opt/apps/hadoop-2.7.7/etc/hadoop

1.配置 hadoop-env.sh

vim hadoop-env.sh
export JAVA_HOME=/opt/apps/jdk1.8.0_221

2.配置core-site.xml

該文件用於指定Namenode

vim core-site.xml
<property>
      <name>hadoop.tmp.dir</name>
            <value>/home/apps/hadoop-2.7.7/data/tmp</value>
                  <description>Abase for other temporary directories.</description>
</property>
<property>
      <name>fs.defaultFS</name>
            <value>hdfs://tang1:9000</value> 
</property>

tang1 為主節點主機名

3.配置hdfs-site.xml

vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/name</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/data</value>
</property>

4.配置mapred-site.xml

cp -i mapred-site.xml.template mapred-site.xml

vi mapred-site.xml
<property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
</property>

<property>
      <name>mapreduce.jobhistory.address</name>
      <value>tang1:10020</value> 
</property>

<property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>tang1:19888</value> 
</property>

tang1為主節點主機名

5.配置slaves

vi slaves
hadoop1 #主節點
hadoop2 #從節點
hadoop3 #從節點

6.拷貝hdoop到從節點

scp  -r  地址/hadoop**  **:/地址

三.啟動Hadoop

1.格式化

hdfs  namenode  -format  

啟動Hadoop所有進程。

start-all.sh


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM