spark 2.4安裝


1、spark 官網選擇對應Hadoop的版本,之前安裝的Hadoop版本為hadoop-3.0.2,獲取下載包:
wget http://mirrors.hust.edu.cn/apache/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz
 
2、解壓縮安裝包,創建軟連接:
tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz
ln -s spark-2.4.0-bin-hadoop2.7 spark
 
3、配置spark,進入conf目錄:
1)、配置spark-env.sh 文件
先拷貝:cp spark-env.sh.template spark-env.sh
文件增加內容如下:
export JAVA_HOME=/usr/local/src/jdk1.8.0_191 #Java環境變量
export SCALA_HOME=/usr/local/src/scala/scala-2.12.7 #SCALA環境變量
export SPARK_WORKING_MEMORY=521m #每一個worker節點上可用的最大內存
export SPARK_MASTER_IP=master #驅動器節點IP
export HADOOP_HOME=/usr/local/src/hadoop-3.0.2 #Hadoop路徑
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop #Hadoop配置目錄
 
2)、配置slave主機
先拷貝:cp slaves.template slaves
文件中增加slave節點名稱:
slave1
slave2
 
3)、將spark 目錄發送給salve1和slave2
scp -r spark root@slave1:/usr/local/src/
scp -r spark root@slave2:/usr/local/src/
 
4)、啟動spark
cd sbin目錄,執行./start-all.sh
 
5)、節點啟動了worker進程
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM