報錯信息:
System memory 259522560 must be at least 471859200. Please increase heap size using the --driver-mem
spark連接hadoop集群
解決方法:
這主要是運行內存的問題,所以我們在運行的時候更改JVM的資源分配:
或者:
val sparkConf = new SparkConf() .set("spark.testing.memory","2147480000")