1、安裝環境
①、一台Linux CentOS6.7 系統
hostname ipaddress subnet mask geteway
Node1 192.168.139.150 255.255.255.0 192.168.139.2
②、hadoop 2.7 安裝包
百度雲下載鏈接:http://pan.baidu.com/s/1gfaKpA7 密碼:3cl7
2、安裝 JDK
教程:http://www.cnblogs.com/ysocean/p/6952166.html
3、配置本機 ssh 免密碼登錄
教程:http://www.cnblogs.com/ysocean/p/6959776.html
上面教程是配置多台機器 ssh 免秘鑰登錄的配置。那么本機配置的話。輸入如下命令即可:
ssh-keygen -t rsa -P '' cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 600 ~/.ssh/authorized_keys
完成之后,以 root 用戶登錄,修改 ssh 配置文件
vi /etc/ssh/sshd_config
把文件中的下面幾條信息的注釋去掉:
RSAAuthentication yes # 啟用 RSA 認證
PubkeyAuthentication yes # 啟用公鑰私鑰配對認證方式
AuthorizedKeysFile .ssh/authorized_keys # 公鑰文件路徑(和上面生成的文件同)
然后重啟服務
service sshd restart
驗證出現如下界面,中間不需要輸入密碼,即配置完成。
4、安裝 hadoop-2.7.3.tar.gz
①、將下載的 hadoop-2.7.3.tar.gz 復制到 /home/hadoop 目錄下(可以利用工具 WinSCP)
②、解壓,進入/home/hadoop 目錄下,輸入下面命令
tar -zxvf hadoop-2.7.3.tar.gz
③、給 hadoop-2.7.3文件夾重命名,以便后面引用
mv hadoop-2.7.3 hadoop2.7
④、刪掉壓縮文件 hadoop-2.7.3.tar.gz,並在/home/hadoop 目錄下新建文件夾 tmp
mv hadoop-2.7.3 hadoop2.7
⑤、配置 hadoop 的環境變量(注意要使用 root 用戶登錄)
vi /etc/profile
輸入如下信息:
然后輸入如下命令保存生效:
source /etc/profile
⑥、驗證
在任意目錄下,輸入 hadoop,出現如下信息即配置成功
5、修改配置文件
①、/home/hadoop/hadoop-2.7.0/etc/hadoop目錄下hadoop-env.sh
輸入命令
修改 hadoop-env.sh 的 JAVA_HOME 值
②、/home/hadoop/hadoop2.7/etc/hadoop目錄下的core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.139.150:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> </configuration>
③、/home/hadoop/hadoop-2.7.0/etc/hadoop目錄下的hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
到此我們便配置完成一個 hdfs 偽分布式環境
啟動 hdfs Single Node
①、初始化 hdfs 文件系統
bin/hdfs namenode -format
②、啟動 hdfs
sbin/start-dfs.sh
③、輸入 jps 應該會有如下信息顯示,則啟動成功
那么我們就可以 通過 http://192.168.139.150:50070 來訪問 NameNode
我們點開 Datanodes ,發現就一個 datanode ,而且 IP 是 NameNode 的
我們使用命令創建一個文件
那么在網頁上我們就能看到這個文件
④、關閉 hdfs
sbin/stop-dfs.sh