hadoop集群搭建詳細教程


本文針對hadoop集群的搭建過程給予一個詳細的介紹。

參考視頻教程:https://www.bilibili.com/video/BV1tz4y127hX?p=1&share_medium=android&share_plat=android&share_session_id=10b66dfa-105f-4f89-9658-87945ddf0f89&share_source=QQ&share_tag=s_i&timestamp=1630912128&unique_k=7lLQER

Windows課前環境准備:

1.安裝虛擬化軟件VMware(筆者采用的是15.5版本)

2.准備3台linux虛擬機

3.linux統一使用centos7.6 64位版本

種子文件下載地址;http://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.torren

 

一.上傳壓縮包並解壓

hadoop版本采用hadoop-3.1.2,將hadoop壓縮包上傳到第一台服務器並解壓(目錄為/kkb/install),第一台機器執行cd /kkb/soft/,進入soft目錄下再執行tar -xzvf hadoop-3.1.4.tar.gz -C /kkb/install。

 

二.查看hadoop支持的壓縮方式以及本地庫

第一台機器執行以下命令

```shell
cd /kkb/install/hadoop-3.1.4/
bin/hadoop checknative

如果出現openssl為false,那么==所有機器==在線安裝openssl即可,執行以下命令,虛擬機聯網之后就可以在線進行安裝了

執行sudo yum -y install openssl-devel。

三.修改配置文件

修改hadoop-env.sh

第一台機器執行以下命令

```shell
cd /kkb/install/hadoop-3.1.4/etc/hadoop/
vim hadoop-env.sh

緊接着

`shell
export JAVA_HOME=/kkb/install/jdk1.8.0_141

修改core-site.xml

第一台機器執行以下命令

```shell
vim core-site.xml

將xml文件改為(要把原有的刪除,下面同理):

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node01:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/kkb/install/hadoop-3.1.4/hadoopDatas/tempDatas</value>
    </property>
    <!--  緩沖區大小,實際工作中根據服務器性能動態調整;默認值4096 -->
    <property>
        <name>io.file.buffer.size</name>
        <value>4096</value>
    </property>
    <!--  開啟hdfs的垃圾桶機制,刪除掉的數據可以從垃圾桶中回收,單位分鍾;默認值0 -->
    <property>
        <name>fs.trash.interval</name>
        <value>10080</value>
    </property>
</configuration>

修改hdfs-site.xml

第一台機器執行以下命令

```shell
vim hdfs-site.xml

<configuration>
    <!-- NameNode存儲元數據信息的路徑,實際工作中,一般先確定磁盤的掛載目錄,然后多個目錄用,進行分割   --> 
    <!--   集群動態上下線 
    <property>
        <name>dfs.hosts</name>
        <value>/kkb/install/hadoop-3.1.4/etc/hadoop/accept_host</value>
    </property>
    <property>
        <name>dfs.hosts.exclude</name>
        <value>/kkb/install/hadoop-3.1.4/etc/hadoop/deny_host</value>
    </property>
     -->
     <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>node01:9868</value>
    </property>
    <property>
        <name>dfs.namenode.http-address</name>
        <value>node01:9870</value>
    </property>
    <!-- namenode保存fsimage的路徑 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/namenodeDatas</value>
    </property>
    <!--  定義dataNode數據存儲的節點位置,實際工作中,一般先確定磁盤的掛載目錄,然后多個目錄用,進行分割  -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/datanodeDatas</value>
    </property>
    <!-- namenode保存editslog的目錄 -->
    <property>
        <name>dfs.namenode.edits.dir</name>
        <value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits</value>
    </property>
    <!-- secondarynamenode保存待合並的fsimage -->
    <property>
        <name>dfs.namenode.checkpoint.dir</name>
        <value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name</value>
    </property>
    <!-- secondarynamenode保存待合並的editslog -->
    <property>
        <name>dfs.namenode.checkpoint.edits.dir</name>
        <value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>dfs.blocksize</name>
        <value>134217728</value>
    </property>
</configuration>

修改mapred-site.xml

第一台機器執行以下命令

vim mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.job.ubertask.enable</name>
        <value>true</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>node01:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>node01:19888</value>
    </property>
        <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
</configuration>

修改yarn-site.xml

第一台機器執行以下命令

vim yarn-site.xml

<configuration>
    <property>
       <name>yarn.resourcemanager.hostname</name>
        <value>node01</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <!-- 如果vmem、pmem資源不夠,會報錯,此處將資源監察置為false -->
    <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
    </property>
    <property>
        <name>yarn.nodemanager.pmem-check-enabled</name>
        <value>false</value>
    </property>
</configuration>

修改workers文件

第一台機器執行以下命令

vim workers

原內容替換為(根據自己對三台機器的命名來進行修改):

node01
node02
node03

四.創建文件存放目錄

第一台機器執行以下命令

node01機器上面創建以下目錄


mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/tempDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/namenodeDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/datanodeDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits

 

五.安裝包的分發scp與rsync

在linux當中,用於向遠程服務器拷貝文件或者文件夾可以使用scp或者rsync,這兩個命令功能類似都是向遠程服務器進行拷貝,只不過scp是全量拷貝,rsync可以做到增量拷貝,rsync的效率比scp更高一些

通過scp直接拷貝

scp(secure copy)安全拷貝

可以通過scp進行不同服務器之間的文件或者文件夾的復制

使用語法


scp -r sourceFile username@host:destpath
```

用法示例


scp -r hadoop-lzo-0.4.20.jar hadoop@node01:/kkb/
```

node01執行以下命令進行拷貝

cd /kkb/install/
scp -r hadoop-3.1.4/ node02:$PWD
scp -r hadoop-3.1.4/ node03:$PWD

 

六.配置hadoop的環境變量

三台機器都要進行配置hadoop的環境變量

三台機器執行以下命令

sudo vim /etc/profile
在末尾添加

export HADOOP_HOME=/kkb/install/hadoop-3.1.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

配置完成之后生效

source /etc/profile

 

第七步:格式化集群

- 要啟動 Hadoop 集群,需要啟動 HDFS 和 YARN 兩個集群。

- 注意:首次啟動HDFS時,必須對其進行格式化操作。本質上是一些清理和准備工作,因為此時的 HDFS 在物理上還是不存在的。<font color='red'>格式化操作只有在首次啟動的時候需要,以后再也不需要了

執行
hdfs namenode -format

觀察生成的日志判斷是否成功

 

八.集群啟動

如果配置了 etc/hadoop/workers 和 ssh 免密登錄,則可以使用程序腳本啟動所有Hadoop 兩個集群的相關進程,在主節點所設定的機器上執行。

- 啟動集群

- 主節點node01節點上執行以下命令

start-dfs.sh
start-yarn.sh
# 已過時mr-jobhistory-daemon.sh start historyserver
mapred --daemon start historyserver
```

- 停止集群(主節點node01節點上執行):


stop-dfs.sh
stop-yarn.sh
# 已過時 mr-jobhistory-daemon.sh stop historyserver
mapred --daemon stop historyserver
```

輸入jps查看進程判斷是否啟動成功

| 服務器IP | node01 | node02 | node03 |
| -------------- | ----------------- | ----------- | ----------- |
| HDFS | NameNode | | |
| HDFS | SecondaryNameNode | | |
| HDFS | DataNode | DataNode | DataNode |
| YARN | ResourceManager | | |
| YARN | NodeManager | NodeManager | NodeManager |
| 歷史日志服務器 | JobHistoryServer | | |

 

九.驗證集群是否搭建成功

###### 1. 訪問web ui界面(根據自己設置的網絡地址)

- hdfs集群訪問地址

http://192.168.51.100:9870/

- yarn集群訪問地址

http://192.168.51.100:8088

- jobhistory訪問地址:

http://192.168.51.100:19888

 

提醒:如果要關閉電腦時,清一定要按照以下順序操作,否則集群可能會出問題==

- 關閉hadoop集群

- 關閉虛擬機

- 關閉電腦

 

筆者在安裝過程中遇到了很多問題,前前后后總共裝了有三次,怕出錯可以提前打印快照,最后預祝大家安裝順利。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM