livy安裝與部屬


學一個東西,首先看它的官網

http://livy.incubator.apache.org/

Livy支持從Web /移動應用程序提供程序化,容錯,多租戶提交Spark作業(無需Spark客戶端)。因此,多個用戶可以同時可靠地與您的Spark集群進行交互。

 

我們實際環境主要為hue和griffin提交spark任務。因為hue為多租戶模式,所以需要通過hdfs用戶部署啟動livy,我也不知道為什么,emm

官方快速安裝文檔如下:

http://livy.incubator.apache.org/get-started/

在實際配置中的環境參數如下:

環境:redhat7.3  CDH5.15.1   hdfs用戶安裝  spark2.3基於yarn模式

CDH5.15.1中spark2.3的安裝目錄和Hadoop目錄如下

HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoop
SPARK_HOME=/opt/cloudera/parcels/SPARK2-2.3.0.cloudera3-1.cdh5.13.3.p0.458809/lib/spark2

 

一、解壓livy
cd  /cslc/dip001/
unzip xxx.zip
cd  $LIVY_HOME
mkdir log
mkdir tmp        
cd conf/

cp livy-env.sh.template livy-env.sh
cp spark-blacklist.conf.template spark-blacklist.conf
cp livy.conf.template livy.conf
二、修改配置文件
vim livy.conf

livy.spark.master = yarn
livy.spark.deploy-mode = cluster
livy.environment = production    
livy.impersonation.enabled = true
livy.server.port = 8998
livy.server.session.timeout = 3600000
livy.server.recovery.mode = recovery
livy.server.recovery.state-store=filesystem
livy.server.recovery.state-store.url=/cslc/dip001/livy-0.5.0-incubating-bin/tmp


vim livy-env.sh

export JAVA_HOME=/opt/cslc/jdk1.8.0_151
export HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoop
export SPARK_CONF_DIR=/etc/spark2/conf
export SPARK_HOME=/opt/cloudera/parcels/SPARK2-2.3.0.cloudera3-1.cdh5.13.3.p0.458809/lib/spark2
export HADOOP_CONF_DIR=/etc/hadoop/conf
export LIVY_LOG_DIR=/cslc/dip001/livy-0.5.0-incubating-bin/log
export LIVY_SERVER_JAVA_OPTS="-Xmx2g"
三、啟動:
使用hdfs用戶啟動 :
/opt/cloudera/livy-0.5.0-incubating-bin/bin/livy-server start

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM