服務器:
用戶:hadoopip | 機器名 | 系統 |
192.168.199.155 | master-hadoop | ubuntu desktop 15 |
192.168.199.157 | slave1-hadoop | ubuntu desktop 15 |
192.168.199.158 | slave2-hadoop | ubuntu desktop 15 |
java:
- 版本:1.8.0_73
- 路徑:/usr/local/jdk
hadoop:
- 版本:2.7.2
- 路徑:/usr/local/hadoop
開始部署
以下部署動作全部在master上執行,slave1和slave2通過虛擬機克隆的方式生成。
設置系統環境變量,編輯/etc/profile,末尾添加:
修改hosts,編輯/etc/hosts,末尾添加:
配置ssh免密登陸
[hadoop@master-hadoop ~]$
ssh
-keygen -t rsa
[hadoop@slave1-hadoop ~]$
cd
/home/hadoop/
.
ssh
/
[hadoop@slave1-hadoop .
ssh
]$
cat
id_rsa.pub >> authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
600 authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
700 ../.
ssh
/
修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根據hadoop路徑修改節點內容)
hadoop-env.sh
slaves
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
克隆虛擬機,生成slave節點(vmware克隆后網卡mac要重新生成,然后在ubuntu網絡設置里重新設置mac地址)
- 修改機器名,編輯/etc/hostname,文件內容改為slave1|slave2后重啟系統。
- 在master上ssh連接slave1和slave2,測試免密碼登陸是否成功,執行
- ssh slave1-hadoop
- 在master上啟動hadoop,執行
- start-all.sh
注意事項:
- hadoop用戶必須有/usr/local/hadoop文件夾讀寫權限
- ssh登陸提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null