公司小站的nginx服務器日志一直沒有管理 到發現的時候已經有50G+的logs文件 查看起來十分不便 只能將其切割
接下來分享 具體方法
split -l 5000(行數) -a 5(增加文件名上限) /www/logs/fxingzhanaccess/new_file_prefixaaahz /www/logs/fxingzhanaccess/2017-09/new_file_prefix
split -l 300 large_file.txt new_file_prefix
使用split命令來分割文件
代碼片段中 -l 之后的數字 300 即為 分割的行數 即每300行分割一次 代碼最后的 new_file_prefix 為缺省的文件名
但是如果我們沒有分析完畢 源文件有多少行 很有可能 缺省的文件名用完了 依然沒有分割完畢
此時就需要我們先搞清楚我們分割的文件具體行數
wc -l filename
再具體切割
同時split也支持為缺省文件名增加參數
split -l 5000(行數) -a 5(增加文件名上限) /file /new_file_prefix
這樣切割之后就會有如圖的文件產生
之后再進行分析就會比較容易了