Hadoop 2.7 偽分布式環境搭建


1、安裝環境

  ①、一台Linux CentOS6.7 系統

  hostname                ipaddress                subnet mask                  geteway    

   Node1     192.168.139.150    255.255.255.0      192.168.139.2

 

  ②、hadoop 2.7 安裝包

    百度雲下載鏈接:http://pan.baidu.com/s/1gfaKpA7 密碼:3cl7

 

2、安裝 JDK

  教程:http://www.cnblogs.com/ysocean/p/6952166.html

 

 

3、配置本機 ssh 免密碼登錄

  教程:http://www.cnblogs.com/ysocean/p/6959776.html

  上面教程是配置多台機器 ssh 免秘鑰登錄的配置。那么本機配置的話。輸入如下命令即可:

ssh-keygen -t rsa -P ''
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

  完成之后,以 root 用戶登錄,修改 ssh 配置文件

vi /etc/ssh/sshd_config

  把文件中的下面幾條信息的注釋去掉: 

  RSAAuthentication yes # 啟用 RSA 認證
  PubkeyAuthentication yes # 啟用公鑰私鑰配對認證方式
  AuthorizedKeysFile .ssh/authorized_keys # 公鑰文件路徑(和上面生成的文件同)

 

  然后重啟服務

service sshd restart

  驗證出現如下界面,中間不需要輸入密碼,即配置完成。

  

 

4、安裝 hadoop-2.7.3.tar.gz

  ①、將下載的 hadoop-2.7.3.tar.gz  復制到 /home/hadoop 目錄下(可以利用工具 WinSCP)

  ②、解壓,進入/home/hadoop 目錄下,輸入下面命令

tar -zxvf hadoop-2.7.3.tar.gz

  ③、給 hadoop-2.7.3文件夾重命名,以便后面引用

mv hadoop-2.7.3 hadoop2.7

  ④、刪掉壓縮文件 hadoop-2.7.3.tar.gz,並在/home/hadoop 目錄下新建文件夾 tmp

mv hadoop-2.7.3 hadoop2.7

  ⑤、配置 hadoop 的環境變量(注意要使用 root 用戶登錄)

vi /etc/profile

  輸入如下信息:

  

  然后輸入如下命令保存生效:

source /etc/profile

  ⑥、驗證

  在任意目錄下,輸入 hadoop,出現如下信息即配置成功

  

 

 

5、修改配置文件

  ①、/home/hadoop/hadoop-2.7.0/etc/hadoop目錄下hadoop-env.sh

  輸入命令

  

  修改 hadoop-env.sh 的 JAVA_HOME 值

   

 

  ②、/home/hadoop/hadoop2.7/etc/hadoop目錄下的core-site.xml

   

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.139.150:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
</configuration>

  ③、/home/hadoop/hadoop-2.7.0/etc/hadoop目錄下的hdfs-site.xml

  

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

  

 

到此我們便配置完成一個 hdfs 偽分布式環境  

  啟動 hdfs Single Node

  ①、初始化 hdfs 文件系統

bin/hdfs namenode -format

  ②、啟動 hdfs 

sbin/start-dfs.sh

  ③、輸入 jps 應該會有如下信息顯示,則啟動成功

  

  那么我們就可以 通過 http://192.168.139.150:50070 來訪問 NameNode

  

  我們點開 Datanodes ,發現就一個 datanode ,而且 IP 是 NameNode 的

  

 

   我們使用命令創建一個文件

  

  那么在網頁上我們就能看到這個文件

  

 

 

  ④、關閉 hdfs

 sbin/stop-dfs.sh

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM