sparkshell中执行wordcount


 

-- 第一步 启动spark shell
cd $SPARK_HOME bin
/spark-shell --master spark://master:7077 --executor-memory 512M

 

-- 第二步 执行语句 

scala> val textFile = sc.textFile("file:///home/hadoop/mooc_data/wc.txt")
scala> val counts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
scala> counts.saveAsTextFile("hdfs://master:8020/mooc_data")

  


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM