1 最直接的方式
scala> val jdbcDF = spark.read.format("jdbc")
.option("url", "jdbc:mysql://hadoop1:3306/rdd")-------mysql 接口和庫名
.option("dbtable", "rddtable")-----兩張表名
.option("user", "root")----登陸的權限和用戶名,照着寫即可
.option("password", "cc123456")----登陸密碼
.load()
結果:
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]
准備工作是你的有要連接mysql的庫名,表名,並且要准備好數據。
2)我們連起來執行一下啊
scala> val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://hadoop1:3306/rdd").option("dbtable", "rddtable").option("user", "root").option("password", "cc123456").load()
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]
3)我們做一下查詢,看看結果如何
scala> jdbcDF.show
+---+----+
| id|name|
+---+----+
| 1|adsg|
| 2|sdaf|
| 23| sdf|
+---+----+