1. 配置JAVA_HOME環境和Hadoop環境:

2. 配置bin

3. 進入Hadoop中/etc/hadoop下
配置hdfs-site.xml增加:
<property>
<!-- 單節點,所以配置成1 -->
<name>dfs.replication</name>
<value>1</value>
</property>
<!-- 指定Hadoop輔助名稱節點主機配置,即:2NN配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>localhost:50090</value>
</property>
<!-- 配置前台訪問頁面 -->
<property>
<name>dfs.namenode.http.address</name>
<value>slave1:50070</value>
</property>
配置core-site.xml文件:
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9820</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/I:/BigData</value>
</property>
4. 配置hadoop-env.cmd 的JAVA_HOME環境變量:
set JAVA_HOME=E:\Java\Java8
5. 運行命令: hdfs namenode -format 運行沒報錯即可
-------------------------報錯---------------------------------------------------
1. 運行 hdfs namenode -format 報錯,異常:

格式化失敗,將此文件放到bin下
2. 報錯
org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z

將hadoop.dll放到java的bin目錄下即可
