報錯信息:
System memory 259522560 must be at least 471859200. Please increase heap size using the --driver-mem
spark連接hadoop集群
解決方法:
這主要是運行內存的問題,所以我們在運行的時候更改JVM的資源分配:


或者:
val sparkConf = new SparkConf() .set("spark.testing.memory","2147480000")
System memory 259522560 must be at least 471859200. Please increase heap size using the --driver-mem
spark連接hadoop集群
這主要是運行內存的問題,所以我們在運行的時候更改JVM的資源分配:


或者:
val sparkConf = new SparkConf() .set("spark.testing.memory","2147480000")
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。