通過thriftserver的beeline/jdbc等方式連接到SparkSQL


thriftserver和beeline的簡單配置和使用
啟動thriftserver: 默認端口是10000 ,可以修改
$ ./${SPARK_HOME}/sbin/start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.27-bin.jar
同樣需要通過 --jars 傳入mysql驅動
啟動beeline

beeline -u jdbc:hive2://localhost:10000 -n hadoop 

hadoop為用戶名 端口和前面保持一致

修改thriftserver啟動占用的默認端口號:

./start-thriftserver.sh \ --master local[2] \ --jars ~/software/mysql-connector-java-5.1.27-bin.jar \ --hiveconf hive.server2.thrift.port=14000 

連接14000上的thriftserver 

beeline -u jdbc:hive2://localhost:14000 -n hadoop

thriftserver和普通的spark-shell/spark-sql有什么區別?
使用thriftserver后,spark-shell、spark-sql都是一個spark application;
使用thriftserver后,不管你啟動多少個客戶端(beeline/code),永遠都是一個spark application,解決了一個數據共享的問題,多個客戶端可以共享數據。
使用jdbc的方式連接
首先需要在pom.xml文件中添加hive-jdbc的依賴

   <!--添加hive-jdbc依賴-->
        <dependency>
            <groupId>org.spark-project.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <version>1.2.1</version>
        </dependency>

1.開發示例代碼,這里假設已經啟動了thriftserver的14000端口

簡單測試 try catch就不寫了

import java.sql.DriverManager /** * @Description: 使用JDBC的連接sparkSQL */
object SparkSQLThriftServerApp { def main(args: Array[String]): Unit = { Class.forName("org.apache.hive.jdbc.HiveDriver") val conn = DriverManager.getConnection("jdbc:hive2://localhost:14000","xiangcong","") val pstmt = conn.prepareStatement("select empno, ename, sal from emp") val rs = pstmt.executeQuery() while (rs.next()) { println("empno:" + rs.getInt("empno") +
        " , ename:" + rs.getString("ename") +
        " , sal:" + rs.getDouble("sal")) } rs.close() pstmt.close() conn.close() } }

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM