一.預備准備
1.關閉防火牆
關閉防火牆的命令
systemctl stop firewalld.service
關閉防火牆的開機自啟
systemctl disable firewalld.service
2.新建文件夾(放置安裝好的文件)
mkdir -p /opt/apps /opt/
3.解壓文件
輸入命令解壓java和Hadoop
tar -zxvf 地址/jdk-8u221-linux-x64.tar.gz -C /opt/apps/
tar -zxvf 地址/hadoop-2.7.7.tar.gz -C /opt/apps/
成功后如下圖
4.修改hosts文件
vim /etc/hosts
在末尾添加
主機IP 主機名
5.權限設置
vim /etc/sudoers
在下插入
hadoop1 ALL=(ALL) NOPASSWD:ALL
二.jdk配置
1.刪除原有java
查詢已經安裝的java
rpm -qa | grep java
命令刪除
rpm -e ** --nodeps
2.配置profile
進入profile
sudo vim /etc/profile
在末尾添加
export JAVA_HOME=/opt/apps/jdk1.8.0_221
export PATH=$PATH:$JAVA_HOME/bin
更新profile
source /etc/profile
查看配置是否成功
java -version
如圖成功
3.拍攝快照(防止后面操作失誤【可不進行】)
三.配置hdoop的profile
進入profile
sudo vim /etc/profile
末尾添加
export HADOOP_HOME=/opt/apps/hadoop-2.7.7
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
刷新配置
source /etc/profile
驗證hadoop是否配置成功
hadoop version
四.克隆虛擬機
1.更改主機名
hostnamectl set-hostname xxx
重復修改剩下的主機
2.更改網絡IP
vi /etc/sysconfig/network-scripts/ifcfg-ens33
更新網絡
service network restart
重復修改剩下的主機
五.配置ssh免密
生成公鑰
ssh-keygen -t rsa
全部回車
拷貝公鑰
ssh-copy-id 要拷貝到的機器ip
完成主節點通從節點,從節點通主節點
測試是否成功
六.配置hdoop
進入hadoop配置文件處
cd /opt/apps/hadoop-2.7.7/etc/hadoop
1.配置 hadoop-env.sh
vim hadoop-env.sh
export JAVA_HOME=/opt/apps/jdk1.8.0_221
2.配置core-site.xml
該文件用於指定Namenode
vim core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/home/apps/hadoop-2.7.7/data/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://tang1:9000</value>
</property>
tang1 為主節點主機名
3.配置hdfs-site.xml
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/apps/hadoop-2.7.7/data/tmp/dfs/data</value>
</property>
4.配置mapred-site.xml
cp -i mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>tang1:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>tang1:19888</value>
</property>
tang1為主節點主機名
5.配置slaves
vi slaves
hadoop1 #主節點
hadoop2 #從節點
hadoop3 #從節點
6.拷貝hdoop到從節點
scp -r 地址/hadoop** **:/地址
三.啟動Hadoop
1.格式化
hdfs namenode -format
啟動Hadoop所有進程。
start-all.sh