在虛擬機Ubuntu18.04系統中安裝hadoop-2.7.3的過程(面向純新手)


記錄一次hadoop安裝過程

虛擬機的配置

首先我們需要先裝好一個虛擬機,我這使用的是Ubuntu18.04版本,安裝好后是英文界面,可以按照以下方法更換為中文界面
首先我們需要下載jdk
打開火狐,切換成百度,搜索jdk,進入官網下載
我們下載這個版本
 
 
2.接下來下載hadoop2.7.3版本(其余版本同樣,這里使用2.7.3版本進行演示)
選擇這個
 
 
 
點擊下載,下載完成后可以在下載文檔中查看到這兩個包
 
接下來 我們進行配置,首先我們先下載一個vim編輯器(好用而已,別的能用也行)
右擊打開終端(如下圖所示)
 
sudo apt-get install vim

 

然后系統會自動安裝好vim
 

 一、java環境變量配置

1.將下載好的 jdk包解壓縮到一個自己創建的文件夾中(像這樣)
(首先我在主目錄創建usr>java>jdk1.8.0_261)
 
2.使用如下命令
sudo vim /etc/profile

  

打開文件后按 i 鍵進入插入模式
來到最后一行添加以下代碼
推薦使用絕對路徑(我這相對路徑報錯 路徑可在jdk文件屬性中查看)
export JAVA_HOME=/home/master/usr/java/jdk1.8.0_261 
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
添加完畢后按esc進入命令模式 按:wq 回車(文件保存並退出)
然后執行如下代碼
source /etc/profile
 
查看java是否安裝成功
java -version

  

 
 

二、配置ssh免密登錄

一般來說新配置的虛擬機沒有安裝ssh
# 查看ssh安裝包情況     dpkg -l | grep ssh
# 查看是否啟動ssh服務    ps -e | grep ssh
如果沒有安裝的話執行如下命令
sudo apt-get install openssh-server
安裝完成后
ssh -keygen -t rsa

 

按兩到三次回車直到顯示$可以輸命令了
然后輸入如下命令
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

 

配置成功 以后就可以免密碼登錄
 

三、配置hadoop

首先將hadoop壓縮包解壓至自己想放入的文件夾
usr>hadoop (此處我修改了文件名稱 去掉了后面的版本號)
 
進入usr文件打開終端 授予權限
sudo chown -R master ./hadoop 

 

打開配置文件
sudo vim /etc/profile

 

添加如下代碼(相當於覆蓋之前java環境配置)
export JAVA_HOME=/home/master/usr/java/jdk1.8.0_261 
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH
export HADOOP_HOME=/home/master/usr/hadoop

 

然后:wq 保存退出
source /etc/profile

  

測試
hadoop version

  

如下圖所示
 

四、偽分布式配置

在hadoop>etc>hadoop中找到 core-site.xml 和 hdfs-site.xml 和 hadoop-env.sh 三個文件
找到后直接雙擊打開(以下代碼中的路徑請按照自己路徑進行修改 其中 tmp文件夾沒有沒關系按代碼復制上去)
在core-site.xml中插入如下代碼
<configuration> 
  <property>
      <name>hadoop.tmp.dir</name>
      <value>file:/home/master/usr/hadoop/tmp</value>
     <description>Abase for other temporary directories.</description>
  </property>
  <property>
      <name>fs.defaultFS</name>
      <value>hdfs://localhost:9000</value>
   </property>
</configuration>

  

在 hdfs-site.xml 中插入如下代碼
<configuration>
    <property>
        <name>dfs.replication</name>
   <value>1</value> 
    </property> 
    <property> 
        <name>dfs.namenode.name.dir</name>
         <value>file:/home/master/usr/hadoop/tmp/dfs/name</value>
     </property> 
   <property> 
    <name>dfs.datanode.data.dir</name> 
    <value>file:/home/master/usr/hadoop/tmp/dfs/data</value>
   </property> 
</configuration>            

  

在 hadoop-env.sh 中修改 JAVA_HOME的路徑
像這樣 修改為自己路徑
 
保存退出
最后
配置完成后在 /home/master/usr/hadoop (注意是自己的hadoop目錄) 下使用以下命令 執行format命令,格式化名稱節點
./bin/hdfs namenode -format

  

如果成功會在后面看見 has been successfully formatted 字樣
開啟hdfs: /home/master/usr/hadoop (注意是自己的hadoop目錄)
./sbin/start-dfs.sh 

 

輸入 jps 查看 如果 datanode和namenode出現表示成功
 
在瀏覽器中輸入http://localhost:50070 查看 如下 則成功
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM