pyspark 連接mysql數據庫


  1:載mysql-connector 放入 jars下

       2:在spark-env.sh中 配置EXTRA_SPARK_CLASSPATH環境變量

  export EXTRA_SPARK_CLASSPATH=/home/fly/spark-2.1.1-bin-hadoop2.7/jars/

      df = sqlContext.read.format("jdbc").options(url="jdbc:mysql://localhost:3306?user=root&useSSL=false", dbtable="db.tablename").load()

  db203 = sqlContext.read.format("jdbc").option("url", "jdbc:mysql://localhost/db?useSSL=false").option("driver", "com.mysql.jdbc.Driver").option("dbtable", "user").option("user", "root").option("password", "").load()

  df.show()


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM