准備工作:1.VMware Workstation Pro 12.0.1
2.CentOS-6.5-x86_64-bin-DVD1.iso
3.jdk-8u151-linux-x64.tar.gz
4.scala-2.12.4.tgz
5.hadoop-2.7.5.tar.gz
6.spark-2.2.1-bin-hadoop2.7.tgz
1.安裝VMware Workstation Pro 12.0.1 ,按提示安裝即可;
2.安裝linux鏡像:
(1)打開.VMware Workstation Pro,創新的虛擬機
(2)選擇典型安裝
(3)選擇linux鏡像
(4)填寫用戶信息
(5)填寫虛擬機名稱
(6)創建磁盤空間
(7)完成安裝,創建虛擬機
(8)切換用戶root,修改密碼
[jun@Master Desktop]$ su jun - -jun是當前用戶名,Master是主機名
輸入密碼
[jun@Master Desktop]$ su - 切換到root用戶
輸入密碼
[root@Master Desktop]# sudo passwd root --設置root密碼
(9)修改主機名
(a)[root@Master Desktop]# vi /etc/sysconfig/network
(b)[root@Master Desktop]# vi /etc/hosts
(10)SSH無密碼訪問
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
驗證ssh,# ssh localhost
不需要輸入密碼即可登錄。
3.安裝jdk1.8
(1)創建目錄
[root@Master Desktop]# mkdir /usr/java --在usr目錄下創建java子目錄
(2)把jdk-8u151-linux-x64.tar.gz拷到java目錄下
(3)解壓
[root@Master Desktop]# tar -zxvf jdk-8u151-linux-x64.tar.gz
(4)修改配置文件,配置環境變量
[root@Master Desktop]# vi /etc/profile
在文件最后面添加:
#set java environment
JAVA_HOME=/usr/java/jdk1.8.0_151
JRE_HOME=/usr/java/jdk1.8.0_151/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin;$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
(5)使配置文件生效
[root@Master Desktop]# source /etc/profile
(6)測試是否成功,成功輸出版本信息
4.安裝scala-2.12.4
(1)創建目錄
[root@Master Desktop]# mkdir /usr/scala --在usr目錄下創建scala子目錄
(2)把scala-2.12.4.tgz拷到scala目錄下
(3)解壓
[root@Master Desktop]# tar -zxvf scala-2.12.4.tgz
(4)修改配置文件,配置環境變量
[root@Master Desktop]# vi /etc/profile
在文件最后面添加:
#set scala environment
export SCALA_HOME=/usr/scala/scala-2.12.4
export PATH=$PATH:$SCALA_HOME/bin
(5)使配置文件生效
[root@Master Desktop]# source /etc/profile
(6)測試是否成功,成功輸出版本信息
5.安裝hadoop-2.7.5(單機版)
(1)創建目錄
[root@Master Desktop]# mkdir /usr/hadoop --在usr目錄下創建scala子目錄
(2)把hadoop-2.7.5.tar.gz拷到hadoop目錄下
(3)解壓
[root@Master Desktop]# tar -zxvf scala-2.12.4.tgz
(4)修改配置文件,配置環境變量
[root@Master Desktop]# vi /etc/profile
在文件最后面添加:
#set hadoop environment
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin
(5)使配置文件生效
[root@Master Desktop]# source /etc/profile
(6)配置hadoop-env.sh
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh
在最后面加上
export JAVA_HOME=/usr/java/jdk1.8.0_151
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_CLASSPATH=$JAVA_HOME/lib/tools.jar
(7)配置yarn-env.sh
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/yarn-env.sh
在最后面加上
export JAVA_HOME=/usr/java/jdk1.8.0_151
(8)配置core-site.xml
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/core-site.xml
加上如下配置:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://Master:9000</value>
<description>HDFS的URI,文件系統://namenode標識:端口號</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/root/hadoop/tmp</value>
<description>namenode上本地的hadoop臨時文件夾</description>
</property>
</configuration>
(9)配置hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/root/hadoop/hdfs/name</value>
<description>namenode上存儲hdfs名字空間元數據 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/root/hadoop/hdfs/data</value>
<description>datanode上數據塊的物理存儲位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
<description>副本個數,配置默認是3,應小於datanode機器數量</description>
</property>
</configuration>
(10)配置mapred-site.xml
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/mapred-site.xml
添加如下配置:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
(11)配置yarn-site.xml
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/yarn-site.xml
添加如下配置:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8099</value>
</property>
</configuration>
(12)配置slaves
[root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/slaves
把localhost 改成Master
(12)HADOOP啟動
[root@Master Desktop]# hadoop namenode -format --首次啟動格式化節點
[root@Master Desktop]# $HADOOP_HOME/sbin/start-all.sh --開啟hadoop所有服務
[root@Master Desktop]# jps --查看進程
如出現如下,則表示啟動成功(主要是namenode,datanode):
13813 ResourceManager
13654 SecondaryNameNode
13480 DataNode
13912 NodeManager
14127 Jps
13343 NameNode
若沒有出現datanode,則查看日志,如下
2018-01-02 08:47:20,050 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/root/hadoop/hdfs/data/
java.io.IOException: Incompatible clusterIDs in /root/hadoop/hdfs/data: namenode clusterID = CID-89c1409a-c8af-47fd-a590-ec5461824524; datanode clusterID = CID-40d89f27-faae-4a61-8eed-64bc06cce181
那么直需要在目錄/root/hadoop/hdfs/name/current中復制version的clusterID到/root/hadoop/hdfs/data/current的version中,保持clusterID一致,然后重啟即可
6.安裝SPARK
(1)創建目錄
[root@Master Desktop]# mkdir /usr/spark --在usr目錄下創建spark子目錄
(2)把spark-2.2.1-bin-hadoop2.7.tgz拷到spark目錄下
(3)解壓
[root@Master Desktop]# tar -zxvf spark-2.2.1-bin-hadoop2.7.tgz
(4)修改配置文件,配置環境變量
[root@Master Desktop]# vi /etc/profile
在文件最后面添加:
#set spark environment
export SPARK_HOME=/usr/spark/spark-2.2.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
(5)使配置文件生效
[root@Master Desktop]# source /etc/profile
(6)測試是否成功
[root@Master Desktop]# spark-shell
如出現下圖,則表示安裝配置成功