1 在虛擬機安裝 Ubuntu
2 安裝網絡工具
Ubuntu最小化安裝沒有 ifconfig命令
sudo apt-get install net-tools
3 Ubuntu修改網卡名字
修改網卡名字為eth0
sudo vim /etc/network/interfaces
reboot
4 修改主機名
sudo vim /etc/hosts
最后還要分別修改 /etc/hostname
reboot
5 修改IP地址
在虛擬機的虛擬機編輯選項->虛擬網絡網絡編輯器->nat模式->更改設置->根據自己主機的網絡改子網
reboot
6 設置 DNS 解析
不需解析
7 修改 hosts 文件
sudo vim /etc/hosts
8 將yum源改為阿里雲
8.1先備份
8.2打開文件設置
sudo vim /etc/apt/sources.list
8.3更新
sudo apt-get update
9 安裝配置JDK
9.1 檢查是否已經安裝
下載JDK,將JDK拉到桌面
9.2 安裝JDK包到下列文件
alien -ivh --prefix=/usr/apps jdk-8u201-linux-x64.rpm
9.3配置環境變量
sudo vim /etc/profile
10 克隆節點
如下圖克隆出nobe3和nobe4
10.1修改新節點的IP
根據步驟七修改
10.2修改主機名
步驟四
10.3其他節點進行類似操作
11 配置免密登錄
11.1 生成密鑰對
ssh-keygen
11.2下載openssh-server
sudo apt-get install openssh-server
11.3將密鑰對配置到node2 node3 和node4
12 添加Hadoop 用戶
四個節點同時操作
sudo useradd hadoop
vsudo passwd hadoop
12.1為Hadoop用戶添加sudo 權限
sudo vim /etc/sudoers
13 配置Hadoop
13.1安裝文件上傳工具
yum - y install lrzsz
13.2 在 /home/xue目錄下新建apps文件夾,將源碼壓縮包上傳到apps文件里
sudo mkdir /home/xue/apps
13.3解壓

13.4 配置Hadoop環境變量
sudo vim /etc/profile
export HADOOP_HOME=/home/xu

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
13.5 將配置文件拷貝到node3,node4中
sudo scp /etc/profile node3:/etc/
13.6 同時操作所有節點,重新加載配置文件
source /etc/profile
13.7 配置各類 xml 文件
配置文件在所在目錄 /home/xue/apps/hadoop-2.7.7/etc/hadoop
13.7.1 配置hadoop-env.sh
添加 JAVA_HOME=/usr/apps/javajdk1.8.0_181-amd64
13.7.2 配置 core-site.xml
13.7.3 配置 hdfs-site.xml
13.7.4 配置 mapred-site.xml.template
將 mapred-site.xml.template 修改 為 mapred-site.xml
13.7.5 配置 yarn-site.xml
13.7.6 修改slaves文件
13.8 把配置文件分發到各個節點

13.9 格式化 NameNode
hdfs namenode -format
13.10 測試安裝
13.10.1 將hadoop主目錄授權給當前用戶(各節點都操作一次)

13.10.2 啟動 HDFS
start-dfs.sh
13.10.3 啟動 YARN
start-yarn.sh
14 完成最后步驟
14.1 網頁管理界面
將node1,node2,node3,node4的IP地址添加到 windows 的 hosts 文件
14.2 登陸
在瀏覽器上登陸HDFS ,http://node2:50070