在linux上安裝spark詳細步驟


在linux上安裝spark ,前提要部署了hadoop,並且安裝了scala.

提君博客原創

對應版本

>>提君博客原創  http://www.cnblogs.com/tijun/  <<

名稱 版本
JDK 1.8.0
hadoop 2.6.0
scala 2.11.0
spark 2.2.0

 

 

 

 

 

第一步,下載  https://spark.apache.org/downloads.html

 

 

第二步,解壓

tar -zxvf spark-2.2.0-bin-hadoop2.6.tgz

第三步,配置環境變量

vi /etc/profile
#SPARK_HOME
export SPARK_HOME=/home/hadoop/spark-2.2.0-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH

第四步,spark配置,

>>提君博客原創  http://www.cnblogs.com/tijun/  <<

spark-env.sh

JAVA_HOME=/home/hadoop/jdk1.8.0_144
SCALA_HOME=/home/hadoop/scala-2.11.0
HADOOP_HOME=/home/hadoop/hadoop260
HADOOP_CONF_DIR=/home/hadoop/hadoop260/etc/hadoop
SPARK_MASTER_IP=ltt1.bg.cn
SPARK_MASTER_PORT=7077
SPARK_MASTER_WEBUI_PORT=8080
SPARK_WORKER_CORES=1
SPARK_WORKER_MEMORY=2g   #spark里許多用到內存的地方默認1g 2g 這里最好設置大與1g
SPARK_WORKER_PORT=7078
SPARK_WORKER_WEBUI_PORT=8081
SPARK_WORKER_INSTANCES=1

spark-defaults.conf  

spark.master    spark://ltt1.bg.cn:7077

slaves

ltt3.bg.cn
ltt4.bg.cn
ltt5.bg.cn

-----------------------------

如果整合hive,hive用到mysql數據庫的話,需要將mysql數據庫連接驅動jmysql-connector-java-5.1.7-bin.jar放到$SPARK_HOME/jars目錄下

------------------------------

第五步,將spark-2.2.0-bin-hadoop2.6 分發到各節點。啟動

提君博客原創

[hadoop@ltt1 sbin]$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/hadoop/spark-2.2.0-bin-hadoop2.6/logs/spark-hadoop-org.apache.spark.deploy.master.Master-1-ltt1.bg.cn.out
ltt5.bg.cn: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-2.2.0-bin-hadoop2.6/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-ltt5.bg.cn.out
ltt4.bg.cn: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-2.2.0-bin-hadoop2.6/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-ltt4.bg.cn.out
ltt3.bg.cn: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-2.2.0-bin-hadoop2.6/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-ltt3.bg.cn.out

最后查看進程

master節點

[hadoop@ltt1 sbin]$ jps
1346 NameNode
1539 JournalNode
1812 ResourceManager
1222 QuorumPeerMain
1706 DFSZKFailoverController
2588 Master
2655 Jps

worker節點

[hadoop@ltt5 ~]$ jps
1299 NodeManager
1655 Worker
1720 Jps
1192 DataNode

提君博客原創

進入Spark的Web管理頁面: http://ltt1.bg.cn:8080

 

 spark安裝完成。

 >>提君博客原創  http://www.cnblogs.com/tijun/  <<


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM