1. 內置 logging模塊
日志級別
- CRITICAL 50
- ERROR 40
- WARNING 30
- INFO 20
- DEBUG 10
logging.basicConfig()函數中的具體參數含義
- filename:指定的文件名創建FiledHandler,這樣日志會被存儲在指定的文件中;
- filemode:文件打開方式,在指定了filename時使用這個參數,默認值為“w”還可指定為“a”;
- format:指定handler使用的日志顯示格式;
- datefmt:指定日期時間格式。,格式參考strftime時間格式化(下文)
- level:設置rootlogger的日志級別
- stream:用指定的stream創建StreamHandler。可以指定輸出到sys.stderr,sys.stdout或者文件,默認為sys.stderr。若同時列出了filename和stream兩個參數,則stream參數會被忽略。
format參數用到的格式化信息
參數 | 描述 |
---|---|
%(name)s | Logger的名字 |
%(levelno)s | 數字形式的日志級別 |
%(levelname)s | 文本形式的日志級別 |
%(pathname)s | 調用日志輸出函數的模塊的完整路徑名,可能沒有 |
%(filename)s | 調用日志輸出函數的模塊的文件名 |
%(module)s | 調用日志輸出函數的模塊名 |
%(funcName)s | 調用日志輸出函數的函數名 |
%(lineno)d | 調用日志輸出函數的語句所在的代碼行 |
%(created)f | 當前時間,用UNIX標准的表示時間的浮 點數表示 |
%(relativeCreated)d | 輸出日志信息時的,自Logger創建以 來的毫秒數 |
%(asctime)s | 字符串形式的當前時間。默認格式是 “2003-07-08 16:49:45,896”。逗號后面的是毫秒 |
%(thread)d | 線程ID。可能沒有 |
%(threadName)s | 線程名。可能沒有 |
%(process)d | 進程ID。可能沒有 |
%(message)s | 用戶輸出的消息 |
使用logging打印日志到標准輸出
import logging
logging.debug('debug message')
logging.info('info message')
logging.warning('warning message')
使用logging.baseConfig()將日志輸出到文件
import os
logging.basicConfig(
filename=os.path.join(os.getcwd(),'all.log'),
level=logging.DEBUG,
format='%(asctime)s %(filename)s : %(levelname)s %(message)s', # 定義輸出log的格式
filemode='a',
datefmt='%Y-%m-%d %A %H:%M:%S',
)
logging.debug('this is a message')
2. 自定義Logger
設置按照日志文件大小自動分割日志寫入文件
import logging
from logging import handlers
class Logger(object):
level_relations = {
'debug': logging.DEBUG,
'info': logging.INFO,
'warning': logging.WARNING,
'error': logging.ERROR,
'crit': logging.CRITICAL
}
def __init__(self, filename, level='info', when='D', backCount=3,
fmt='%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s'):
self.logger = logging.getLogger(filename)
format_str = logging.Formatter(fmt) # 設置日志格式
self.logger.setLevel(self.level_relations.get(level)) # 設置日志級別
# 向控制台輸出日志
stream_handler = logging.StreamHandler()
stream_handler.setFormatter(format_str)
self.logger.addHandler(stream_handler)
# 日志按文件大小寫入文件
# 1MB = 1024 * 1024 bytes
# 這里設置文件的大小為500MB
rotating_file_handler = handlers.RotatingFileHandler(
filename=filename, mode='a', maxBytes=1024 * 1024 * 500, backupCount=5, encoding='utf-8')
rotating_file_handler.setFormatter(format_str)
self.logger.addHandler(rotating_file_handler)
log = Logger('all.log', level='info')
log.logger.info('[測試log] hello, world')
按照間隔日期自動生成日志文件
import logging
from logging import handlers
class Logger(object):
level_relations = {
'debug': logging.DEBUG,
'info': logging.INFO,
'warning': logging.WARNING,
'error': logging.ERROR,
'crit': logging.CRITICAL
}
def __init__(self, filename, level='info', when='D', backCount=3,
fmt='%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s'):
self.logger = logging.getLogger(filename)
format_str = logging.Formatter(fmt) # 設置日志格式
self.logger.setLevel(self.level_relations.get(level)) # 設置日志級別
# 往文件里寫入
# 指定間隔時間自動生成文件的處理器
timed_rotating_file_handler = handlers.TimedRotatingFileHandler(
filename=filename, when=when, backupCount=backCount, encoding='utf-8')
# 實例化TimedRotatingFileHandler
# interval是時間間隔,backupCount是備份文件的個數,如果超過這個個數,就會自動刪除,when是間隔的時間單位,單位有以下幾種:
# S 秒
# M 分
# H 小時、
# D 天、
# W 每星期(interval==0時代表星期一)
# midnight 每天凌晨
timed_rotating_file_handler.setFormatter(format_str) # 設置文件里寫入的格式
self.logger.addHandler(timed_rotating_file_handler)
# 往屏幕上輸出
stream_handler = logging.StreamHandler()
stream_handler.setFormatter(format_str)
self.logger.addHandler(stream_handler)
log = Logger('all.log', level='info')
log.logger.info('[測試log] hello, world')
3. logging 模塊在Flask中的使用
我在使用Flask的過程中看了很多Flask關於logging的文檔,但使用起來不是很順手,於是自己就根據Flask的官方文檔寫了如下的log模塊,以便集成到Flask中使用。
restful api 項目目錄:
.
├── apps_api
│ ├── common
│ ├── models
│ └── resources
├── logs
├── migrations
│ └── versions
├── static
├── templates
├── test
└── utils
└── app.py
└── config.py
└── exts.py
└── log.py
└── manage.py
└── run.py
└── README.md
└── requirements.txt
log.py
文件
# -*- coding: utf-8 -*-
import logging
from flask.logging import default_handler
import os
from logging.handlers import RotatingFileHandler
from logging import StreamHandler
BASE_DIR = os.path.dirname(os.path.abspath(__file__))
LOG_PATH = os.path.join(BASE_DIR, 'logs')
LOG_PATH_ERROR = os.path.join(LOG_PATH, 'error.log')
LOG_PATH_INFO = os.path.join(LOG_PATH, 'info.log')
LOG_PATH_ALL = os.path.join(LOG_PATH, 'all.log')
# 日志文件最大 100MB
LOG_FILE_MAX_BYTES = 100 * 1024 * 1024
# 輪轉數量是 10 個
LOG_FILE_BACKUP_COUNT = 10
class Logger(object):
def init_app(self, app):
# 移除默認的handler
app.logger.removeHandler(default_handler)
formatter = logging.Formatter(
'%(asctime)s [%(thread)d:%(threadName)s] [%(filename)s:%(module)s:%(funcName)s] '
'[%(levelname)s]: %(message)s'
)
# 將日志輸出到文件
# 1 MB = 1024 * 1024 bytes
# 此處設置日志文件大小為500MB,超過500MB自動開始寫入新的日志文件,歷史文件歸檔
file_handler = RotatingFileHandler(
filename=LOG_PATH_ALL,
mode='a',
maxBytes=LOG_FILE_MAX_BYTES,
backupCount=LOG_FILE_BACKUP_COUNT,
encoding='utf-8'
)
file_handler.setFormatter(formatter)
file_handler.setLevel(logging.INFO)
stream_handler = StreamHandler()
stream_handler.setFormatter(formatter)
stream_handler.setLevel(logging.INFO)
for logger in (
# 這里自己還可以添加更多的日志模塊,具體請參閱Flask官方文檔
app.logger,
logging.getLogger('sqlalchemy'),
logging.getLogger('werkzeug')
):
logger.addHandler(file_handler)
logger.addHandler(stream_handler)
在exts.py
擴展文件中添加log模塊
# encoding: utf-8
from log import Logger
logger = Logger()
在app.py
文件中引入logger
模塊,這個文件是create_app
的工廠模塊。
# encoding: utf-8
from flask import Flask
from config import CONFIG
from exts import logger
def create_app():
app = Flask(__name__)
# 加載配置
app.config.from_object(CONFIG)
# 初始化logger
logger.init_app(app)
return app
運行run.py
# -*- coding: utf-8 -*-
from app import create_app
app = create_app()
if __name__ == '__main__':
app.run()
在項目中使用logger模塊
from flask import current_app
current_app.logger.info('i am logger info')
current_app.logger.debug('i am logger debug')
$ python run.py
* Serving Flask app "app" (lazy loading)
* Environment: production
WARNING: This is a development server. Do not use it in a production deployment.
Use a production WSGI server instead.
* Debug mode: on
2019-07-08 08:15:50,396 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit)
2019-07-08 08:15:50,397 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Restarting with stat
2019-07-08 08:15:50,748 [140735687508864:MainThread] [_internal.py:_internal:_log] [WARNING]: * Debugger is active!
2019-07-08 08:15:50,755 [140735687508864:MainThread] [_internal.py:_internal:_log] [INFO]: * Debugger PIN: 234-828-739