公司小站的nginx服务器日志一直没有管理 到发现的时候已经有50G+的logs文件 查看起来十分不便 只能将其切割
接下来分享 具体方法
split -l 5000(行数) -a 5(增加文件名上限) /www/logs/fxingzhanaccess/new_file_prefixaaahz /www/logs/fxingzhanaccess/2017-09/new_file_prefix
split -l 300 large_file.txt new_file_prefix
使用split命令来分割文件
代码片段中 -l 之后的数字 300 即为 分割的行数 即每300行分割一次 代码最后的 new_file_prefix 为缺省的文件名
但是如果我们没有分析完毕 源文件有多少行 很有可能 缺省的文件名用完了 依然没有分割完毕
此时就需要我们先搞清楚我们分割的文件具体行数
wc -l filename
再具体切割
同时split也支持为缺省文件名增加参数
split -l 5000(行数) -a 5(增加文件名上限) /file /new_file_prefix
这样切割之后就会有如图的文件产生
之后再进行分析就会比较容易了