spark 更改日志输出级别


package com.ideal.test

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.log4j.{Level, Logger}
object WC {
  Logger.getRootLogger.setLevel(Level.ERROR) //Logger.getLogger("org").setLevel(Level.ERROR)
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
      .setAppName("wc")
    val sc = new SparkContext(conf)
    val lines = sc.textFile(args(0))
    val counts = lines.flatMap(_.split("\\s+"))
      .map{a=>(a, 1)}
      .reduceByKey(_ + _)
    counts.saveAsTextFile(args(1))
    sc.stop()
  }
}

 Logger.getRootLogger.setLevel(Level.ERROR) 通过在代码中设置log级别即可


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM