Spark读取文件统计行数


 

package sy3

import org.apache.spark.SparkContext
import org.apache.spark.SparkConf

object tjhs {
  def main(args: Array[String]) {
    val logFile = "E:/IntelliJ IDEA 2019.3.3/WorkSpace/MyScala/src/main/scala/sy3/test1"
    //val logFile = "hdfs://192.168.249.128:9000/mapreduce/input1/in1.txt"
    val conf = new SparkConf().setAppName("Simple Application")
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2)
    val num = logData.count()
    println("这个文件有 %d 行!".format(num))
  }
}

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM