1、druid監控的功能:
1. 數據源 2. SQL監控 對執行的MySQL語句進行記錄,並記錄執行時間、事務次數等 3. SQL防火牆 對SQL進行預編譯,並統計該條SQL的數據指標 4. Web應用 對發布的服務進行監控,統計訪問次數,並發數等全局信息 5. URI監控 對訪問的URI進行統計,記錄次數,並發數,執行jdbc數等 6. Session監控 對用戶請求后保存在服務器端的session進行記錄,識別出每個用戶訪問了多少次數據庫等 7. Spring監控 (按需配置)利用aop對各個內容接口的執行時間、jdbc數進行記錄
2、配置慢SQL記錄到日志文件
@Bean(destroyMethod = "close") @Primary public DruidDataSource dataSource() throws SQLException { DruidDataSource dataSource = new DruidDataSource(); dataSource.setDbType(Global.getProperty("jdbc.type")); dataSource.setDriverClassName(Global.getProperty("jdbc.driver"));//"com.mysql.jdbc.Driver" dataSource.setUrl(Global.getProperty("jdbc.url")); dataSource.setUsername(Global.getProperty("jdbc.username")); dataSource.setPassword(Global.getProperty("jdbc.password")); dataSource.setInitialSize(ObjectUtils.toInteger(Global.getProperty("jdbc.pool.init"))); dataSource.setMinIdle(ObjectUtils.toInteger(Global.getProperty("jdbc.pool.minIdle"))); dataSource.setMaxActive(ObjectUtils.toInteger(Global.getProperty("jdbc.pool.maxActive"))); dataSource.setMaxWait(60000); dataSource.setTimeBetweenEvictionRunsMillis(60000); dataSource.setMinEvictableIdleTimeMillis(300000); dataSource.setValidationQuery(Global.getProperty("jdbc.testSql")); dataSource.setTestWhileIdle(true); // 如果設為true那么在取得連接的同時將校驗連接的有效性。Default: falsed,不檢測池里連接的可用性 dataSource.setTestOnBorrow(true); // 因性能消耗大請只在需要的時候使用它。如果設為true那么在每個connection提交的時候都將校驗其有效性。 dataSource.setTestOnReturn(false); dataSource.setPoolPreparedStatements(true); dataSource.setMaxPoolPreparedStatementPerConnectionSize(20); dataSource.setFilters("stat,wall,logback"); // 開啟Druid的監控統計功能,開啟了druid防火牆 // 配置數據庫斷開后自動連接 dataSource.setLogAbandoned(true); // 關閉abandoned連接時輸出錯誤日志 dataSource.setRemoveAbandoned(true); // 超過時間限制是否回收 dataSource.setRemoveAbandonedTimeout(180); // 超時時間;單位為秒。180秒=3分鍾 // 慢SQL配置 start List<Filter> filters = new ArrayList<>(); StatFilter statfilter = new StatFilter(); statfilter.setMergeSql(true); statfilter.setLogSlowSql(true); statfilter.setSlowSqlMillis(200);// 200ms的sql會被記錄到日志中 filters.add(statfilter); filters.add(logFilter());// 配置logback日志記錄慢查詢SQL // 慢SQL配置 end dataSource.setProxyFilters(filters); return dataSource; } // 慢SQL配置之logback start @Bean public Slf4jLogFilter logFilter(){ Slf4jLogFilter filter = new Slf4jLogFilter(); //filter.setDataSourceLogEnabled(true); //filter.setStatementExecutableSqlLogEnable(true); filter.setResultSetLogEnabled(false); filter.setConnectionLogEnabled(false); filter.setStatementParameterClearLogEnable(false); filter.setStatementCreateAfterLogEnabled(false); filter.setStatementCloseAfterLogEnabled(false); filter.setStatementParameterSetLogEnabled(false); filter.setStatementPrepareAfterLogEnabled(false); return filter; } // 慢SQL配置之logback end
logback-core.xml
<?xml version="1.0" encoding="UTF-8"?> <configuration> <!-- %m輸出的信息,%p日志級別,%t線程名,%d日期,%c類的全名,%i索引【從數字0開始遞增】,,, --> <!-- appender是configuration的子節點,是負責寫日志的組件。 --> <!-- ConsoleAppender:把日志輸出到控制台 --> <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender"> <encoder> <pattern>%d %p (%file:%line\)- %m%n</pattern> <!-- 控制台也要使用UTF-8,不要使用GBK,否則會中文亂碼 --> <charset>UTF-8</charset> </encoder> </appender> <!-- RollingFileAppender:滾動記錄文件,先將日志記錄到指定文件,當符合某個條件時,將日志記錄到其他文件 --> <!-- 以下的大概意思是:1.先按日期存日志,日期變了,將前一天的日志文件名重命名為XXX%日期%索引,新的日志仍然是demo.log --> <!-- 2.如果日期沒有發生變化,但是當前日志的文件大小超過1KB時,對當前日志進行分割 重命名--> <appender name="jsitelog" class="ch.qos.logback.core.rolling.RollingFileAppender"> <!-- <File>log/jsite.log</File> --> <File>/home/wwwlogs/jsite/log.log</File> <!-- rollingPolicy:當發生滾動時,決定 RollingFileAppender 的行為,涉及文件移動和重命名。 --> <!-- TimeBasedRollingPolicy: 最常用的滾動策略,它根據時間來制定滾動策略,既負責滾動也負責出發滾動 --> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!-- 活動文件的名字會根據fileNamePattern的值,每隔一段時間改變一次 --> <!-- 文件名:log/demo.2017-12-05.0.log --> <!-- <fileNamePattern>log/jsite.%d.%i.log</fileNamePattern> --> <fileNamePattern>/home/wwwlogs/jsite/log.%d.%i.log</fileNamePattern> <!-- 每產生一個日志文件,該日志文件的保存期限為30天 --> <maxHistory>30</maxHistory> <timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP"> <!-- maxFileSize:這是活動文件的大小,默認值是10MB,測試時可改成1KB看效果 --> <maxFileSize>10240KB</maxFileSize> </timeBasedFileNamingAndTriggeringPolicy> </rollingPolicy> <encoder> <!-- pattern節點,用來設置日志的輸入格式 --> <pattern> %d %p (%file:%line\)- %m%n </pattern> <!-- 記錄日志的編碼:此處設置字符集 - --> <charset>UTF-8</charset> </encoder> </appender> <!-- 控制台輸出日志級別 --> <root level="info"> <appender-ref ref="STDOUT" /> <appender-ref ref="jsitelog" /> </root> <!-- 指定項目中某個包,當有日志操作行為時的日志記錄級別 --> <!-- com.liyan為根包,也就是只要是發生在這個根包下面的所有日志操作行為的權限都是DEBUG --> <!-- 級別依次為【從高到低】:FATAL > ERROR > WARN > INFO > DEBUG > TRACE --> <logger name="com.jsite" level="DEBUG"> <appender-ref ref="jsitelog" /> </logger> <!-- Project defalult level --> <!-- log4j.logger.org.activiti.engine.impl.persistence=DEBUG --> <!-- log4j.logger.org.apache.shiro=DEBUG --> <logger name="com.jsite" level="DEBUG" /> <logger name="amberai.jweb.dao" level="DEBUG" /> <logger name="com.jsite.common.security.shiro" level="DEBUG" /> <logger name="com.jsite.common.utils.JedisUtils" level="DEBUG" /> <logger name="com.jsite.modules.sys.web.LoginController" level="DEBUG" /> <logger name="com.jsite.modules.oa.dao.OaNotifyDao.findCount" level="WARN" /> <!-- druid慢查詢配置 [start] --> <appender name="DruidFILE" class="ch.qos.logback.core.rolling.RollingFileAppender"> <File>/home/wwwlogs/jsite/slow-query.log</File> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--日志文件輸出的文件名 --> <FileNamePattern>/home/wwwlogs/jsite/slow-query.log-druid-%d{yyyy-MM-dd} </FileNamePattern> <!--日志文件保留天數 --> <MaxHistory>90</MaxHistory> </rollingPolicy> <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder"> <!--格式化輸出:%d表示日期,%thread表示線程名,%-5level:級別從左顯示5個字符寬度%msg:日志消息,%n是換行符 --> <pattern> %d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n </pattern> </encoder> </appender> <!-- 要想打印所有sql語句到日志 ,使用DEBUG級別 <logger name="druid" level="DEBUG">
<logger name="druid.sql.Statement" level="WARN"> 參考log4j慢sql日志的輸出策略:(https://www.cnblogs.com/telwanggs/p/7484854.html) log4j.logger.druid.sql=WARN,druid log4j.logger.druid.sql.DataSource=WARN,druid log4j.logger.druid.sql.Connection=WARN,druid log4j.logger.druid.sql.Statement=WARN,druid -->
<logger name="com.alibaba.druid.filter.stat.StatFilter" level="WARN"> <appender-ref ref="STDOUT" /> <appender-ref ref="DruidFILE" /> </logger> <!-- druid慢查詢配置 [end] --> </configuration>
參考資料:
1、springboot 中使用Druid 數據源提供數據庫監控
5、Druid監控功能的深入使用與配置-基於SpringBoot-完全使用 .properties配置文件
7、Druid監控功能的深入使用與配置-如何記錄監控數據(基於logback)
8、druid日志logback.xml配置只記錄sql和時間
druid官方文檔:
1. Druid中使用log4j2進行日志輸出 (這個配置時使用log4j2輸出,其實用logback也可以) https://github.com/alibaba/druid/wiki/Druid%E4%B8%AD%E4%BD%BF%E7%94%A8log4j2%E8%BF%9B%E8%A1%8C%E6%97%A5%E5%BF%97%E8%BE%93%E5%87%BA
2. 配置StatViewServlet配置 (這個配置比較老,不適合springboot使用,看看就行) https://github.com/alibaba/druid/wiki/%E9%85%8D%E7%BD%AE_StatViewServlet%E9%85%8D%E7%BD%AE
3. Druid Spring Boot Starter 用於幫助你在Spring Boot項目中輕松集成Druid數據庫連接池和監控。(這個文檔很適合springboot的項目,但不是每一個配置項都需要寫,全寫了反而會起反效果)
https://github.com/alibaba/druid/tree/master/druid-spring-boot-starter