一.環境准備
阿里雲ECS(Centos7).已預裝JDK8
Hadoop安裝包 hadoop-2.7.7.tar.gz
二. 安裝步驟
1.確認JDK環境的安裝位置
命令 echo $JAVA_HOME
2.解壓hadoop-2.7.7.tar.gz 文件夾到指定目錄(目錄可以自己定義)
命令 tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module/ (我這里是解壓到 /opt/module/目錄下)
3.配置運行環境
文件1:hadoop-env.sh
配置Hadoop對JDK依賴的環境
輸入echo JAVA_HOME=(JDK環境的安裝位置,根據步驟1可以確定)
文件2:core-site.xml
配置文件系統櫃HDFS的主機名稱和端口號(這里使用本機的名稱,可以通過hostname查看主機名稱.端口號隨意指定,但是要在阿里雲控制台開啟對外端口
<property> <name>fs.default.name</name><value>hdfs://localhost:8020</value></property>
配置文件系統namenode節點文件存放的目錄
<property> <name>dfs.name.dir</name>//hadoop臨時目錄用來存放臨時文件,如果不設置,則該文件會在linux系統重啟后消失 <value>/hadoop/name</value> //該目錄必須預先手工創建不能刪除 </property>
配置文件系統櫃datanode節點文件存放目錄
<property> <name>dfs.data.dir</name> //hadoop臨時目錄用來存放namenode文件 <value>/hadoop/data</value> //該目錄必須預先手工創建不能刪除 </property>
配置文件系統臨時文件的存放目錄
<property> <name>hadoop.tmp.dir</name> //hadoop臨時目錄用來存放datanode文件
<value>/hadoop/tmp</value> //該目錄必須預先手工創建不能刪除
</property>
文件2:hdfs-site.xml
配置dfs的副本數量,偽分布式設置為1即可
<property> <name>dfs.replication</name> <value>1</value> </property>
4.配置完成后需要 format格式化文件系統(注意.第一次執行即可,不要重復執行,重復執行會出問題,https://blog.csdn.net/weixin_38847462/article/details/77879459)
進入bin 目錄下./hadoop namenode -format
出現以下提示表示格式化成功
5.啟動hdfs
進入sbin目錄下.啟動腳本./start-dfs.sh
啟動完成后 輸入 jps可以查看是否啟動成功(注意,如果這里沒有配置ssh免密登錄,name就會要你輸入密碼,很煩)
看到以下就是啟動成功了
注意:如果沒有這幾個進程,就是啟動失敗,可以查看日志信息,日志信息在啟動時可以查看,將out變為log即可
http://localhost:50070
6.配置Hadoop 的bin目錄到系統的環境變量中,這樣使用shell就比較方便
/opt/module/hadoop-2.7.7/bin
vim ~/.bash_profile
source ~/.bash_profile
使用echo $HADOOP_HOME確認是否配置成功
7.hadoop常用的命令