spark读取hdfs上的文件和写入数据到hdfs上面


原创,未经同意转载,复制的没唧唧
def main(args: Array[String]): Unit = {
       val conf = new SparkConf()
       conf.set( "spark.master" , "local" )
       conf.set( "spark.app.name" , "spark demo" )
       val sc = new SparkContext(conf);
       // 读取hdfs数据
       val textFileRdd = sc.textFile( "hdfs://m2:9820/README.md" )
       val fRdd = textFileRdd.flatMap { _.split( " " ) }
       val mrdd = fRdd.map { (_, 1 ) }
       val rbkrdd = mrdd.reduceByKey(_+_)
       // 写入数据到hdfs系统
       rbkrdd.saveAsTextFile( "hdfs://m2:9820/wcresult" )
   }


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM