linux文件按照行數切割


公司小站的nginx服務器日志一直沒有管理 到發現的時候已經有50G+的logs文件 查看起來十分不便 只能將其切割

接下來分享 具體方法

split -l 5000(行數) -a 5(增加文件名上限) /www/logs/fxingzhanaccess/new_file_prefixaaahz /www/logs/fxingzhanaccess/2017-09/new_file_prefix
 
split -l 300 large_file.txt new_file_prefix

使用split命令來分割文件

代碼片段中 -l 之后的數字 300 即為 分割的行數 即每300行分割一次 代碼最后的 new_file_prefix 為缺省的文件名

但是如果我們沒有分析完畢 源文件有多少行 很有可能 缺省的文件名用完了 依然沒有分割完畢

此時就需要我們先搞清楚我們分割的文件具體行數

wc -l filename

再具體切割 

同時split也支持為缺省文件名增加參數

split -l 5000(行數) -a 5(增加文件名上限) /file  /new_file_prefix

 

這樣切割之后就會有如圖的文件產生 

之后再進行分析就會比較容易了

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM