linux系統搭建JDK+SCALA+HADOOP+SPARK


准備工作:1.VMware Workstation Pro 12.0.1 

     2.CentOS-6.5-x86_64-bin-DVD1.iso

     3.jdk-8u151-linux-x64.tar.gz

        4.scala-2.12.4.tgz

        5.hadoop-2.7.5.tar.gz

                  6.spark-2.2.1-bin-hadoop2.7.tgz

1.安裝VMware Workstation Pro 12.0.1 ,按提示安裝即可;

2.安裝linux鏡像:

(1)打開.VMware Workstation Pro,創新的虛擬機

(2)選擇典型安裝

(3)選擇linux鏡像

(4)填寫用戶信息

(5)填寫虛擬機名稱

(6)創建磁盤空間

(7)完成安裝,創建虛擬機

(8)切換用戶root,修改密碼

   [jun@Master Desktop]$ su jun      - -jun是當前用戶名,Master是主機名

   輸入密碼

          [jun@Master Desktop]$ su  -        切換到root用戶

   輸入密碼

     [root@Master Desktop]#  sudo passwd root   --設置root密碼

(9)修改主機名

    (a)[root@Master Desktop]# vi /etc/sysconfig/network

  

       (b)[root@Master Desktop]# vi /etc/hosts

      

(10)SSH無密碼訪問

  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  驗證ssh,# ssh localhost 
  不需要輸入密碼即可登錄。

3.安裝jdk1.8

(1)創建目錄

  [root@Master Desktop]# mkdir /usr/java    --在usr目錄下創建java子目錄

(2)把jdk-8u151-linux-x64.tar.gz拷到java目錄下

(3)解壓

  [root@Master Desktop]# tar -zxvf  jdk-8u151-linux-x64.tar.gz

(4)修改配置文件,配置環境變量

  [root@Master Desktop]#  vi /etc/profile

  在文件最后面添加:

  #set java environment
  JAVA_HOME=/usr/java/jdk1.8.0_151
  JRE_HOME=/usr/java/jdk1.8.0_151/jre
  CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
  PATH=$PATH:$JAVA_HOME/bin;$JRE_HOME/bin
  export JAVA_HOME JRE_HOME CLASS_PATH PATH

(5)使配置文件生效

  [root@Master Desktop]#  source /etc/profile

(6)測試是否成功,成功輸出版本信息

       

 

4.安裝scala-2.12.4

(1)創建目錄

  [root@Master Desktop]# mkdir /usr/scala    --在usr目錄下創建scala子目錄

(2)把scala-2.12.4.tgz拷到scala目錄下

(3)解壓

  [root@Master Desktop]# tar -zxvf scala-2.12.4.tgz

(4)修改配置文件,配置環境變量

  [root@Master Desktop]#  vi /etc/profile

  在文件最后面添加: 

  #set scala environment
  export SCALA_HOME=/usr/scala/scala-2.12.4
  export PATH=$PATH:$SCALA_HOME/bin

(5)使配置文件生效

  [root@Master Desktop]#  source /etc/profile

(6)測試是否成功,成功輸出版本信息

  

5.安裝hadoop-2.7.5(單機版)

(1)創建目錄

  [root@Master Desktop]# mkdir /usr/hadoop    --在usr目錄下創建scala子目錄

(2)把hadoop-2.7.5.tar.gz拷到hadoop目錄下

(3)解壓

  [root@Master Desktop]# tar -zxvf scala-2.12.4.tgz

(4)修改配置文件,配置環境變量

  [root@Master Desktop]#  vi /etc/profile

  在文件最后面添加: 

  #set hadoop environment
  export HADOOP_HOME=/usr/hadoop/hadoop-2.7.5
  export PATH=$PATH:$HADOOP_HOME/bin

(5)使配置文件生效

  [root@Master Desktop]#  source /etc/profile

(6)配置hadoop-env.sh 

        [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/hadoop-env.sh

  在最后面加上

  export JAVA_HOME=/usr/java/jdk1.8.0_151
  export PATH=$JAVA_HOME/bin:$PATH
  export HADOOP_CLASSPATH=$JAVA_HOME/lib/tools.jar

(7)配置yarn-env.sh  

  [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/yarn-env.sh

  在最后面加上

  export JAVA_HOME=/usr/java/jdk1.8.0_151

(8)配置core-site.xml

  [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/core-site.xml

  加上如下配置:  

  <configuration>
    <property>
      <name>fs.default.name</name>
      <value>hdfs://Master:9000</value>
      <description>HDFS的URI,文件系統://namenode標識:端口號</description>
    </property>

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/root/hadoop/tmp</value>
      <description>namenode上本地的hadoop臨時文件夾</description>
    </property>
  </configuration>

(9)配置hdfs-site.xml 

  <configuration>
    <property>
      <name>dfs.name.dir</name>
      <value>/root/hadoop/hdfs/name</value>
      <description>namenode上存儲hdfs名字空間元數據 </description>
    </property>

    <property>
      <name>dfs.data.dir</name>
      <value>/root/hadoop/hdfs/data</value>
      <description>datanode上數據塊的物理存儲位置</description>
    </property>

    <property>
      <name>dfs.replication</name>
      <value>2</value>
      <description>副本個數,配置默認是3,應小於datanode機器數量</description>
    </property>
  </configuration>

(10)配置mapred-site.xml 

  [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/mapred-site.xml
  添加如下配置:

  <configuration>
    <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
      </property>
  </configuration>

(11)配置yarn-site.xml 

  [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/yarn-site.xml
  添加如下配置:
  <configuration>
  <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
  </property>
  <property>
          <name>yarn.resourcemanager.webapp.address</name>
          <value>${yarn.resourcemanager.hostname}:8099</value>
  </property>
  </configuration>

(12)配置slaves

  [root@Master Desktop]# vi $HADOOP_HOME/etc/hadoop/slaves

  把localhost 改成Master

(12)HADOOP啟動

  [root@Master Desktop]# hadoop namenode -format   --首次啟動格式化節點

  [root@Master Desktop]# $HADOOP_HOME/sbin/start-all.sh  --開啟hadoop所有服務

  [root@Master Desktop]# jps   --查看進程

  如出現如下,則表示啟動成功(主要是namenode,datanode): 

  13813 ResourceManager
  13654 SecondaryNameNode
  13480 DataNode
  13912 NodeManager
  14127 Jps
  13343 NameNode

  若沒有出現datanode,則查看日志,如下 

  2018-01-02 08:47:20,050 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/root/hadoop/hdfs/data/
  java.io.IOException: Incompatible clusterIDs in /root/hadoop/hdfs/data: namenode clusterID = CID-89c1409a-c8af-47fd-a590-ec5461824524; datanode clusterID = CID-40d89f27-faae-4a61-8eed-64bc06cce181

  那么直需要在目錄/root/hadoop/hdfs/name/current中復制version的clusterID到/root/hadoop/hdfs/data/current的version中,保持clusterID一致,然后重啟即可

6.安裝SPARK

(1)創建目錄

  [root@Master Desktop]# mkdir /usr/spark    --在usr目錄下創建spark子目錄

(2)把spark-2.2.1-bin-hadoop2.7.tgz拷到spark目錄下

(3)解壓

  [root@Master Desktop]# tar -zxvf  spark-2.2.1-bin-hadoop2.7.tgz

(4)修改配置文件,配置環境變量

  [root@Master Desktop]#  vi /etc/profile

  在文件最后面添加: 

  #set spark environment
  export SPARK_HOME=/usr/spark/spark-2.2.1-bin-hadoop2.7
  export PATH=$PATH:$SPARK_HOME/bin

(5)使配置文件生效

  [root@Master Desktop]#  source /etc/profile

(6)測試是否成功

  [root@Master Desktop]#  spark-shell

  如出現下圖,則表示安裝配置成功

  

 

 

 

 

 

  

  

 

 

       

 

 

 

 

 

 

  

 

  

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM