前提環境是之前搭建的4台Linux虛擬機,詳情參見 Linux集群搭建
該環境對應4台服務器,192.168.1.60、61、62、63,其中60為主機,其余為從機
軟件版本選擇:
Java:JDK1.8.0_191(jdk-8u191-linux-x64.tar.gz)
Hadoop:Hadoop-2.9.2(hadoop-2.9.2.tar.gz)
上傳hadoop與java到服務器並查看
cd /home/ftpuser/
ls
安裝Java
解壓Java
mkdir /usr/java
tar -zxvf jdk-8u191-linux-x64.tar.gz -C /usr/java/
配置Java環境變量
vi /etc/profile
添加Java配置
啟用配置
source /etc/profile
查看是否配置成功
java -version
配置Hadoop主體環境
修改hostname,方便認識,這里設置為對應IP的4台服務器HServer60,HServer61,HServer62,HServer63,配置后重啟(reboot)生效
vi /etc/hostname
配置hosts文件,對應IP於主機名
vi /etc/hosts
解壓hadoop
mkdir /cloud cd /home/ftpuser/ tar -zxvf hadoop-2.9.2.tar.gz -C /cloud/
一共有5個文件需要配置
hadoop-env.sh
core-site.xml
hdfs-site.xml
yarn-site.xml
yarn-env.sh
mapred-site.xml
slaves
cd /cloud/hadoop-2.9.2/etc/hadoop/
配置hadoop-env.sh
vi hadoop-env.sh
配置yarn-env.sh
vi yarn-env.sh
配置core-site.xml
vi core-site.xml
配置mapred-site.xml,先從模板復制一份配置出來,並修改
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
配置slaves,寫入從機名稱
vi slaves
剩下的2個文件hdfs-site.xml與yarn-site.xml需要區分主機NameNode與從機DataNode的配置
主機NameNode的hdfs-site.xml配置
vi hdfs-site.xml
其中blocksize可以根據情況自行調整,是數據塊的大小,handler.cout一般幾台小集群10都足夠了
主機NameNode的yarn-site.xml配置
vi yarn-site.xml
從機DataNode的hdfs-site.xml配置
vi hdfs-site.xml
其中replication為備份數
從機DataNode的yarn-site.xml配置
vi yarn-site.xml
設置NameNode免密登錄,在主機上操作
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.61 ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.62 ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.63
可以將配置好的東西通過scp命令復制到遠程服務器上
scp -rp /cloud/hadoop-2.9.2 root@192.168.1.62:/cloud/
整個Hadoop集群配置完畢,可以啟動試試看,這里換到我已經搭建好的4台服務器,50、51、52、53
啟動命令在hadoop目錄的sbin文件夾中,也可以在/etc/profile文件中配置環境變量,類似java配置,將該目錄加入path路徑
啟動hadoop集群,通過jps查看是否啟動了
start-all.sh
主機jps上會有NameNode,ResourceManager,SecondaryNameNode
從機jps上會有NodeManager,DataNode
這樣就成功的啟動了,訪問主機IP:50070的URL訪問