1.Log4j2.xml配置文件信息
說明:同一個RollingFile 可以配置多個Logger,實現多個class打印到同一個日志文件
<?xml version="1.0" encoding="UTF-8"?> <!--Configuration后面的status,這個用於設置log4j2自身內部的信息輸出,可以不設置,當設置成trace時,你會看到log4j2內部各種詳細輸出--> <!--monitorInterval:Log4j能夠自動檢測修改配置 文件和重新配置本身,設置間隔秒數--> <configuration monitorInterval="5"> <!--日志級別以及優先級排序: OFF > FATAL > ERROR > WARN > INFO > DEBUG > TRACE > ALL --> <!--變量配置--> <Properties> <!-- 格式化輸出:%date表示日期,%thread表示線程名,%-5level:級別從左顯示5個字符寬度 %msg:日志消息,%n是換行符--> <!-- %logger{36} 表示 Logger 名字最長36個字符 --> <property name="LOG_PATTERN" value="%date{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n" /> <!-- 定義日志存儲的路徑 --> <property name="FILE_PATH" value="logs" /> <property name="FILE_NAME" value="merger-admin" /> </Properties> <appenders> <console name="Console" target="SYSTEM_OUT"> <!--輸出日志的格式--> <PatternLayout pattern="${LOG_PATTERN}"/> <!--控制台只輸出level及其以上級別的信息(onMatch),其他的直接拒絕(onMismatch)--> <ThresholdFilter level="info" onMatch="ACCEPT" onMismatch="DENY"/> </console> <!--文件會打印出所有信息,這個log每次運行程序會自動清空,由append屬性決定,適合臨時測試用--> <File name="Filelog" fileName="${FILE_PATH}/test.log" append="false"> <PatternLayout pattern="${LOG_PATTERN}"/> </File> <!-- 這個會打印出所有的info及以下級別的信息,每次大小超過size,則這size大小的日志會自動存入按年份-月份建立的文件夾下面並進行壓縮,作為存檔--> <RollingFile name="RollingFileInfo" fileName="${FILE_PATH}/info.log" filePattern="${FILE_PATH}/${FILE_NAME}-INFO-%d{yyyy-MM-dd}_%i.log.gz"> <!--控制台只輸出level及以上級別的信息(onMatch),其他的直接拒絕(onMismatch)--> <ThresholdFilter level="info" onMatch="ACCEPT" onMismatch="DENY"/> <PatternLayout pattern="${LOG_PATTERN}"/> <Policies> <!--interval屬性用來指定多久滾動一次,默認是1 hour--> <TimeBasedTriggeringPolicy interval="1"/> <SizeBasedTriggeringPolicy size="10MB"/> </Policies> <!-- DefaultRolloverStrategy屬性如不設置,則默認為最多同一文件夾下7個文件開始覆蓋--> <DefaultRolloverStrategy max="15"/> </RollingFile> <!-- 這個會打印出所有的warn及以下級別的信息,每次大小超過size,則這size大小的日志會自動存入按年份-月份建立的文件夾下面並進行壓縮,作為存檔--> <RollingFile name="RollingFileWarn" fileName="${FILE_PATH}/warn.log" filePattern="${FILE_PATH}/${FILE_NAME}-WARN-%d{yyyy-MM-dd}_%i.log.gz"> <!--控制台只輸出level及以上級別的信息(onMatch),其他的直接拒絕(onMismatch)--> <ThresholdFilter level="warn" onMatch="ACCEPT" onMismatch="DENY"/> <PatternLayout pattern="${LOG_PATTERN}"/> <Policies> <!--interval屬性用來指定多久滾動一次,默認是1 hour--> <TimeBasedTriggeringPolicy interval="1"/> <SizeBasedTriggeringPolicy size="10MB"/> </Policies> <!-- DefaultRolloverStrategy屬性如不設置,則默認為最多同一文件夾下7個文件開始覆蓋--> <DefaultRolloverStrategy max="15"/> </RollingFile> <!-- 這個會打印出所有的error及以下級別的信息,每次大小超過size,則這size大小的日志會自動存入按年份-月份建立的文件夾下面並進行壓縮,作為存檔--> <RollingFile name="RollingFileError" fileName="${FILE_PATH}/error.log" filePattern="${FILE_PATH}/${FILE_NAME}-ERROR-%d{yyyy-MM-dd}_%i.log.gz"> <!--控制台只輸出level及以上級別的信息(onMatch),其他的直接拒絕(onMismatch)--> <ThresholdFilter level="error" onMatch="ACCEPT" onMismatch="DENY"/> <PatternLayout pattern="${LOG_PATTERN}"/> <Policies> <!--interval屬性用來指定多久滾動一次,默認是1 hour--> <TimeBasedTriggeringPolicy interval="1"/> <SizeBasedTriggeringPolicy size="10MB"/> </Policies> <!-- DefaultRolloverStrategy屬性如不設置,則默認為最多同一文件夾下7個文件開始覆蓋--> <DefaultRolloverStrategy max="15"/> </RollingFile> <!--單獨記錄某個class的日志文件--> <RollingFile name="RollingFileFtp" fileName="${FILE_PATH}/ftp_log.log" filePattern="${FILE_PATH}/ftp_log-INFO-%d{yyyy-MM-dd}_%i.log.gz"> <PatternLayout pattern="${LOG_PATTERN}"/> <Policies> <!--interval屬性用來指定多久滾動一次,默認是1 hour--> <TimeBasedTriggeringPolicy interval="1"/> <SizeBasedTriggeringPolicy size="20MB"/> </Policies> <!-- DefaultRolloverStrategy屬性如不設置,則默認為最多同一文件夾下7個文件開始覆蓋--> <DefaultRolloverStrategy max="15"/> </RollingFile> </appenders> <!--Logger節點用來單獨指定日志的形式,比如要為指定包下的class指定不同的日志級別等。--> <!--然后定義loggers,只有定義了logger並引入的appender,appender才會生效--> <loggers> <!--過濾掉spring和mybatis的一些無用的DEBUG信息--> <logger name="org.mybatis" level="info" additivity="false"> <AppenderRef ref="Console"/> </logger> <!--監控系統信息--> <!--若是additivity設為false,則 子Logger 只會在自己的appender里輸出,而不會在 父Logger 的appender里輸出。--> <Logger name="org.springframework" level="info" additivity="false"> <AppenderRef ref="Console"/> </Logger> <Logger name="cn.com.sparknet.merger.utils.Ftputils" level="info" additivity="false"> <AppenderRef ref="RollingFileFtp" /> </Logger> <Logger name="cn.com.sparknet.merger.web.service.impl.TGjFileFtpInfoServiceImpl" level="info" additivity="false"> <AppenderRef ref="RollingFileFtp" /> </Logger> <root level="info"> <appender-ref ref="Console"/> <appender-ref ref="Filelog"/> <appender-ref ref="RollingFileInfo"/> <appender-ref ref="RollingFileWarn"/> <appender-ref ref="RollingFileError"/> </root> </loggers> </configuration>
2.java代碼中使用
/**
* 日志對象
**/
private static final Logger LOGGER = LoggerFactory.getLogger("cn.com.sparknet.merger.utils.FtpUtils");
LOGGER.error("沒有找到" + ftpPath + "文件");
LOGGER.info(fileDirectory+"/upload/"+"該目錄不存在");
3.只會在ftp_log.log文件打印日志,項目自身的日志文件不會打印這些日志
14:59:29.782 [scheduling-1] INFO cn.com.sparknet.merger.web.service.impl.TGjFileFtpInfoServiceImpl - appkey01/upload/該目錄下可能有0個或多個json文件
14:59:30.643 [scheduling-1] ERROR cn.com.sparknet.merger.utils.Ftputils - 20210625.zip移動失敗
14:59:52.232 [scheduling-1] ERROR cn.com.sparknet.merger.utils.Ftputils - 2021062501.zip移動失敗
14:59:53.260 [scheduling-1] ERROR cn.com.sparknet.merger.web.service.impl.TGjFileFtpInfoServiceImpl - insertAll方法出錯!null
15:00:58.985 [scheduling-1] ERROR cn.com.sparknet.merger.utils.Ftputils - 20210625正確.zip移動失敗
15:00:58.985 [scheduling-1] ERROR cn.com.sparknet.merger.web.service.impl.TGjFileFtpInfoServiceImpl - insertAll方法出錯!syntax error, pos 2, line 1, column 3[ { "fileName":"文件1名稱", "fileSuffix":"文件1后綴名", "filePath":"文件1文件服務器絕對路徑", "appKey":"數源系統appKey", "conTableName":"業務關聯表名稱", "conTableColumn":"業務關聯表字段名稱( 多業務主鍵的請以隔開)", "conTableColumnValue":"業務關聯表字段參數( 多業務主鍵的請以隔開, 參數值順序與conTableColumn保持一致)" }, { "fileName":"文件2名稱", "fileSuffix":"文件2后綴名", "filePath":"文件2文件服務器絕對路徑", "appKey":"數源系統appKey", "conTableName":"業務關聯表名稱", "conTableColumn":"業務關聯表字段名稱隔開)", "conTableColumnValue":"業務關聯表字段參數" }]
15:01:05.396 [scheduling-1] ERROR cn.com.sparknet.merger.utils.Ftputils - 20210625錯誤.zip移動失敗
