spark轉換集合為RDD


SparkContext可以通過parallelize把一個集合轉換為RDD

def main(args: Array[String]): Unit = {
      val conf = new SparkConf();
      val list = List(1, 2, 3, 4, 5,6);
      conf.set("spark.master", "local")
      conf.set("spark.app.name", "spark demo")
      val sc = new SparkContext(conf);
      val input = sc.parallelize(list)
      val sum = input.sum()
      println(sum)
  }

  

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM