IDEA 中Spark SQL通過JDBC連接mysql數據庫


一.IDEA裝驅動:

1.下載一個MySQL的JDBC驅動:mysql-connector-java-5.1.44.tar.gz
2.在idea Open Moudle Settings 在 Moudle中   選Dependencies + JDC驅動的解壓位置 選(mysql-connector-java-5.1.44-bin)這個就ok

二.程序:

import java.util.Properties

import com.sun.org.apache.xalan.internal.xsltc.compiler.util.IntType
import org.apache.spark.sql.types._
import org.apache.spark.sql.{Row, SparkSession}


object JDBC_To_DF {
  val spark= SparkSession.builder().getOrCreate()
  import spark.implicits._
  def main(args: Array[String]): Unit = {

    val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://localhost:3306/***")  //*****這是數據庫名
      .option("driver", "com.mysql.jdbc.Driver").option("dbtable", "****")//*****是表名
      .option("user", "*****").option("password", "*****").load()
    jdbcDF.show()

    val studentRDD=spark.sparkContext.parallelize(Array("3 小翠 G 27","4 小狗蛋 B 50"))
                      .map(x=>x.split(" "))
    val ROWRDD=studentRDD.map(x=>Row(x(0).toInt,x(1).trim,x(2).trim,x(3).toInt))
       ROWRDD.foreach(print)
    //設置模式信息
    val schema=StructType(List(StructField("id",IntegerType,true),StructField("name",StringType,true),StructField("gender",StringType,true),StructField("age", IntegerType, true)))

    val studentDF=spark.createDataFrame(ROWRDD,schema)

    val parameter=new Properties()
    parameter.put("user","****")
    parameter.put("password","****")
    parameter.put("driver","com.mysql.jdbc.Driver")
    studentDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/******","/*/*/*/*/*",parameter) //******"是數據庫名,/*/*/*/*/*表名
   jdbcDF.show()
  }
}

結果:

+---+----+------+---+
| id|name|gender|age|
+---+----+------+---+
|  1|  小周|     B| 25|
|  2|  小蘇|     G| 27|
|  3|  小翠|     G| 27|
|  4| 小狗蛋|     B| 50|
|  3|  小翠|     G| 27|
|  4| 小狗蛋|     B| 50|
+---+----+------+---+


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM