Spark读取mysql


import org.apache.log4j.{Level, Logger}
import org.apache.spark.sql.SparkSession

object SparkSql {
def main(args: Array[String]): Unit ={
Logger.getLogger("org").setLevel(Level.ERROR)
val spark = SparkSession.builder().appName("test").master("local[2]").getOrCreate()
val df = spark.read
.format("jdbc")
.option("url", "jdbc:mysql://localhost:3306/要访问的数据库名")
.option("driver", "com.mysql.jdbc.Driver")
.option("dbtable", "表名")
.option("user", "用户名")
.option("password", "密码")
.load()

df.show()
}
}

有帮助的欢迎评论打赏哈,谢谢!


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM