spark连接jdbc,连接mysql


1 最直接的方式

scala> val jdbcDF = spark.read.format("jdbc")

.option("url", "jdbc:mysql://hadoop1:3306/rdd")-------mysql 接口和库名

.option("dbtable", "rddtable")-----两张表名

.option("user", "root")----登陆的权限和用户名,照着写即可

.option("password", "cc123456")----登陆密码

.load()
结果:

jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]

准备工作是你的有要连接mysql的库名,表名,并且要准备好数据。

 

2)我们连起来执行一下啊

scala> val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://hadoop1:3306/rdd").option("dbtable", "rddtable").option("user", "root").option("password", "cc123456").load()
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]

 

 

3)我们做一下查询,看看结果如何

scala> jdbcDF.show
+---+----+
| id|name|
+---+----+
| 1|adsg|
| 2|sdaf|
| 23| sdf|
+---+----+

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM