hadoop3完全分布式搭建


hadoop3的jdk和基礎環境搭建參考 url: https://www.cnblogs.com/gzgBlog/p/13702720.html

處節點設置為:

IP 主機名 節點
192.168.10.11  mater      NameNode(NN)、DataNode(DN)
192.168.10.12  slave01 Secondary NameNode(SN)、DataNode(DN)
192.168.10.13 slave02  DataNode(DN)

 

 

 

 

 

三台機器分別修改ip和對應主機名(此處不做介紹)

配置需要 master 免密登錄 slave01和slave02(此處不做介紹)

master中配置解壓jdk, tar -zvxf  jdk安裝包, 

 

 

 

 解壓hadoop安裝包,tar -zvxf ./appinstall/hadoop-3.2.1.tar.gz,環境變量中添加 jdk和hadoop   vim /etc/profile 

 

 

 是配置文件生效,source  /etc/profile 

配置完成可分別使用 Java -version 和 hadoop version 測試,出現如下信息表示配置成功

 

 

 1.部署及配置

Hadoop的配置涉及以下幾個文件,分別是:hadoop-env.sh、core-site.xml、hdfs-site.xml和workers。其中,

hadoop-env.sh是Hadoop運行環境變量配置;

core-site.xml是Hadoop公共屬性的配置;

hdfs-site.xml是關於HDFS的屬性配置;workers是DataNode分布配置。下面我們分別配置這幾個文件。

(1)hadoop-env.sh文件(注意:=左右均不能有空格)

 在/etc/hadoop/hadoop-env.sh中配置運行環境變量,在默認情況下,這個文件是沒有任何配置的。我們需要配置JAVA_HOME、HDFS_NAMENODE_USER和HDFS_DATANODE_USER等,HDFS_SECONDARYNAMENODE_USER配置代碼如下:

export JAVA_HOME=/app/jdk1.8.0_211
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root

 

 

 其中,JAVA_HOME= /app/hadoop-3.2.1 是指定JDK的位置,

HDFS_NAMENODE_USER=root是指定操作NameNode進程的用戶是root。

同理,HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER分別指定了操作DataNode和Secondary NameNode的用戶,在這里我們設置為root用戶,具體應用時,讀者根據情況進行設置即可。

在這里需要注意的是,HDFS_NAMENODE_USER、HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER是Hadoop 3.x為了提升安全性而引入的。

(2)core-site.xml文件

core-site.xml中主要配置Hadoop的公共屬性,配置代碼如下:

<configuration>

<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9820</value>
</property>

<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoopdata</value>
</property>

</configuration>

其中,

fs.defaultFS是指定NameNode所在的節點,在這里配置為node1;9820是默認端口;hdfs:是協議;

hadoop.tmp.dir是配置元數據所存放的配置,這里配置為/opt/hadoopdata,后續如果需要查看fsiamge和edits文件,可以到這個目錄下查找。

(3)hdfs-site.xml文件

 hdfs-site.xml文件中主要是HDFS屬性配置,配置代碼如下:

<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave01:9868</value>
</property>
</configuration>

其中,dfs.namenode.secondary.http-address屬性是配置SecondaryNameNode的節點,在這里配置為node2。端口為9868。

關於這些配置,讀者可以從官網上查找,網址為http://hadoop.apache.org/docs/r3.1.0/,其中的左下角有個Configuration項,其中包括core-default.xml等配置文件。

(4)workers文件

在workers中配DataNode節點,在其中寫入:

master
slave01
slave02

將hadoop和 profile 分別復制到另外兩台機器上

分別使另外兩天機器profile配置生效

格式化

第一次安裝Hadoop需要進行格式化,以后就不需要了。格式化命令在hadoop/bin下面,執行命令: hdfs namenode -format,如下格式成功

 

 格式化后會創建一個空白的fsimage文件,可以在opt/hadoopdata/dfs/name/current中找到fsimage文件,注意此時沒有edits文件。

啟動命令

進入hadoop/sbin下面運行start-dfs.sh,啟動HDFS集群,啟動命令如下:

 

 如上,表示啟動成功,分別去另外兩個節點查看是否啟動成功,如下表示啟動成功

 

 打開瀏覽器查看HDFS監聽頁面

在瀏覽器中輸入http://ip:9870,比如這里輸入http://192.168.10.11:9870/,出現以下界面則表示Hadoop完全分布式搭建成功,如圖所示。

 

 

 選擇Datanodes選項,可以看到DataNode的利用率和DataNode的節點狀態,如下圖所示

 

 

 

 上傳文件

將1.txt上傳到HDFS的根目錄“/”下面,命令如下: hdfs dfs -put ./1.txt /

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM