hadoop2.7.2完全分布式環境搭建


服務器:

用戶:hadoop
ip 機器名 系統
192.168.199.155 master-hadoop ubuntu desktop 15
192.168.199.157 slave1-hadoop ubuntu desktop 15
192.168.199.158 slave2-hadoop ubuntu desktop 15

 

java:

  • 版本:1.8.0_73

image

  • 路徑:/usr/local/jdk

hadoop:

  • 版本:2.7.2
  • 路徑:/usr/local/hadoop

 


開始部署

以下部署動作全部在master上執行,slave1和slave2通過虛擬機克隆的方式生成。

設置系統環境變量,編輯/etc/profile,末尾添加:

image

修改hosts,編輯/etc/hosts,末尾添加:

image

配置ssh免密登陸

[hadoop@master-hadoop ~]$ ssh-keygen -t rsa

[hadoop@slave1-hadoop ~]$ cd/home/hadoop/.ssh/

[hadoop@slave1-hadoop .ssh]$ cat id_rsa.pub >> authorized_keys

[hadoop@slave1-hadoop .ssh]$ chmod 600 authorized_keys

[hadoop@slave1-hadoop .ssh]$ chmod 700 ../.ssh

修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根據hadoop路徑修改節點內容)

hadoop-env.sh

image

slaves

image

core-site.xml

image

hdfs-site.xml

image

yarn-site.xml

image

mapred-site.xml

image

 

克隆虛擬機,生成slave節點(vmware克隆后網卡mac要重新生成,然后在ubuntu網絡設置里重新設置mac地址)

  1. 修改機器名,編輯/etc/hostname,文件內容改為slave1|slave2后重啟系統。
  2. 在master上ssh連接slave1和slave2,測試免密碼登陸是否成功,執行
    • ssh  slave1-hadoop
  3. 在master上啟動hadoop,執行
    • start-all.sh

注意事項:

  1. hadoop用戶必須有/usr/local/hadoop文件夾讀寫權限
  2. ssh登陸提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:

StrictHostKeyChecking no

UserKnownHostsFile /dev/null


測試

image


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM