sparkshell中執行wordcount


 

-- 第一步 啟動spark shell
cd $SPARK_HOME bin
/spark-shell --master spark://master:7077 --executor-memory 512M

 

-- 第二步 執行語句 

scala> val textFile = sc.textFile("file:///home/hadoop/mooc_data/wc.txt")
scala> val counts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
scala> counts.saveAsTextFile("hdfs://master:8020/mooc_data")

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM