[Spark--編碼]--如何設定日誌的列印級別
以下三種方式可以選擇有一種,但就經測試,最靠譜的方式是第三種結合第一種使用。
1、通過配置檔案
#log4j.rootLogger=WARN,console log4j.rootLogger=DEBUG, stdout # console log4j.appender.console=org.apache.log4j.ConsoleAppender log4j.appender.console.encoding=utf-8 log4j.appender.console.layout=org.apache.log4j.PatternLayout log4j.appender.console.layout.ConversionPattern =%-d{yyyy-MM-dd HH:mm:ss} [ %t:%r ] - [ %p ] %l %m%n
2、程式碼中設定
val sc: SparkContext = new SparkContext(sparkConf) sc.setLogLevel("WARN") //sc.setLogLevel("DEBUG") //sc.setLogLevel("ERROR") //sc.setLogLevel("INFO")
3、程式碼中使用代理設定
import org.apache.log4j.Logger
Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)
Logger.getLogger("org.apache.hadoop").setLevel(Level.ERROR)
Logger.getLogger("org.apache.zookeeper").setLevel(Level.WARN)
Logger.getLogger("org.apache.hive").setLevel(Level.WARN)