thriftserver和beeline的簡單配置和使用
啟動thriftserver: 默認端口是10000 ,可以修改
$ ./${SPARK_HOME}/sbin/start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.27-bin.jar
同樣需要通過 --jars 傳入mysql驅動
啟動beeline
beeline -u jdbc:hive2://localhost:10000 -n hadoop
hadoop為用戶名 端口和前面保持一致
修改thriftserver啟動占用的默認端口號:
./start-thriftserver.sh \ --master local[2] \ --jars ~/software/mysql-connector-java-5.1.27-bin.jar \ --hiveconf hive.server2.thrift.port=14000
連接14000上的thriftserver
beeline -u jdbc:hive2://localhost:14000 -n hadoop
thriftserver和普通的spark-shell/spark-sql有什么區別?
使用thriftserver后,spark-shell、spark-sql都是一個spark application;
使用thriftserver后,不管你啟動多少個客戶端(beeline/code),永遠都是一個spark application,解決了一個數據共享的問題,多個客戶端可以共享數據。
使用jdbc的方式連接
首先需要在pom.xml文件中添加hive-jdbc的依賴
<!--添加hive-jdbc依賴-->
<dependency>
<groupId>org.spark-project.hive</groupId>
<artifactId>hive-jdbc</artifactId>
<version>1.2.1</version>
</dependency>
1.開發示例代碼,這里假設已經啟動了thriftserver的14000端口
簡單測試 try catch就不寫了
import java.sql.DriverManager /** * @Description: 使用JDBC的連接sparkSQL */
object SparkSQLThriftServerApp { def main(args: Array[String]): Unit = { Class.forName("org.apache.hive.jdbc.HiveDriver") val conn = DriverManager.getConnection("jdbc:hive2://localhost:14000","xiangcong","") val pstmt = conn.prepareStatement("select empno, ename, sal from emp") val rs = pstmt.executeQuery() while (rs.next()) { println("empno:" + rs.getInt("empno") +
" , ename:" + rs.getString("ename") +
" , sal:" + rs.getDouble("sal")) } rs.close() pstmt.close() conn.close() } }