[Spark] pyspark insertInto 去重插入數據表


pyspark有個bug, 雖然下面代碼寫了 write.mode("overwrite")但是不生效

spark.conf.set("hive.exec.dynamic.partition.mode", "constrict")
db_df.repartition(1).write.mode("overwrite").insertInto("TABLE")

所以會導致TABLE內數據有重復的現象。

如何去重插入數據表?

在insertInto("TABLE", True) 加上True參數即可,表示的同樣是"isOverwrite".


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM