hadoop壓縮包下載:
鏈接:https://pan.baidu.com/s/1dz0Hh75VNKEebcYcbN-4Hw
提取碼:g2e3
java壓縮包下載:
鏈接:https://pan.baidu.com/s/1DriDVSKQWAQme0QuoiEnQg
提取碼:cmag
centos7的安裝和配置可以再網上搜到,但是在安裝的時候一定要注意要選擇圖形化界面安裝,這樣在進行后續的操作的時候比較方便
本人實在vbox上面安裝的
ip地址的配置:https://www.cnblogs.com/xuzhaoyang/p/11264573.html由於centos采用的小紅帽的內核所以在文件的結構上大同小異
然后配置本地的yum源,首先將盤片掛載到虛擬機上面之后
mkdir /mnt/cdrom
mount /dev/cdrom /mnt/cdrom
然后將/etc/yum.repos.d路徑下的文件都刪除,然后創建本地的yum源
vi /etc/yum.repos.d/CentOS-local.repo
文件里面輸入
[base-local]#這個是本源的名字,不能和其他的重復(隨便,不重復)
name=CentOS-local #名字(隨便)
baseurl=file:///mnt/cdrom #上方步驟一掛載鏡像創建的目錄
enabled=1 #yum源是否啟用 1-啟用 0-不啟用
gpgcheck=1 #安全檢測 1-開啟 0-不開啟
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7
然后保存,這樣本地的yum源就配置好了
一、 安裝ssh免密登錄
命令:ssh-keygen
overwrite(覆蓋寫入)輸入y
一路回車
將生成的密鑰發送到本機地址
ssh-copy-id localhost
(若報錯命令無法找到則需要安裝openssh-clients)
yum –y install openssh-clients
測試免密設置是否成功
ssh localhost date
卸載已有java
確定JDK版本
rpm –qa | grep jdk
rpm –qa | grep gcj
如果有版本號的話,
切換到root用戶,根據結果卸載java
yum -y remove java-1.8.0-openjdk-headless.x86_64
yum -y remove java-1.7.0-openjdk-headless.x86_64
一、 安裝java
切換回hadoop用戶,命令:su hadoop
查看下當前目標文件,命令:ls,查看當前路徑下的文件
新建一個app文件夾,命令:mkdir app
將桌面的hadoop文件夾中的java及hadoop安裝包移動到app文件夾中,可以使用Xftp進行傳輸,Xftp使用步驟參考:https://www.cnblogs.com/xuzhaoyang/p/11264587.html
解壓java程序包,命令:tar –zxvf jdk-7u79-linux-x64.tar.gz
創建軟連接
ln –s jdk1.8.0_141 jdk
配置jdk環境變量
切換到root用戶
再輸入vi /etc/profile
輸入
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_141
export JAVA_JRE=JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_JRE/lib
export PATH=$PATH:$JAVA_HOME/bin
保存退出,並使/etc/profile文件生效
source /etc/profile
能查詢jdk版本號,說明jdk安裝成功
java -version
安裝hadoop
切換回hadoop用戶,解壓縮hadoop-2.6.0.tar.gz安裝包
創建軟連接,命令:ln -s hadoop-2.7.0 hadoop
然后驗證單機模式的Hadoop是否安裝成功,命令:
hadoop/bin/hadoop version
配置偽分布式登錄
進入hadoop/etc/hadoop目錄,修改相關配置文件
cd etc/
cd hadoop/
修改core-site.xml配置文件
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/hadoop/data/tmp</value> </property> <property> <name>hadoop.proxyuser.hadoop.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hadoop.groups</name> <value>*</value> </property> </configuration>
修改hdfs-site.xml配置文件
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop /data/dfs/name</value> <final>true</final> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop /data/dfs/data</value> <final>true</final> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
修改hadoop-env.sh配置文件 vi ~/app/Hadoop/etc/Hadoop/Hadoop-env.sh
修改mapred-site.xml.template配置文件
<configuration> <property> <name>mapreduce.frameword.name</name> <value>yarn</value> </property> </configuration>
修改yarn-site.xml配置文件
<property> <name>yarn.nodemanager.aux-servies</name> <value>mapreduce_shuffle</value> </property> </configuration>
配置hadoop環境變量 vi ~/.bashrc
JAVA_HOME=/home/localhost/app/jdk HADOOP_HOME=/home/localhost/app/hadoop CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH export JAVA_HOME CLASSPATH PATH HADOOP_HOME
使修改生效,命令:source ~/.bashrc
在hadoop相關配置文件中配置了多個數據目錄,提前建立這些文件夾
格式化namenode
在啟動hadoop集群前需要格式化namenode。需要注意的是,第一次安裝Hadoop集群的時候需要格式化Namenode,以后直接啟動Hadoop集群即可,不需要重復格式化Namenode。
切回到hadoop目錄,輸入如下命令:
bin/hdfs namenode -format
啟動hadoop偽分布式集群
sbin/start-all.sh