首先介紹幾個日志查看種常用的簡單命令:
1、tail
tail 命令可用於查看文件的內容,有一個常用的參數 -f 常用於查閱正在改變的日志文件。
tail -f filename 會把 filename 文件里的最尾部的內容顯示在屏幕上,並且不斷刷新,只要 filename 更新就可以看到最新的文件內容。
命令格式:
tail [參數] [文件]
參數:
- -f 循環讀取
- -q 不顯示處理信息
- -v 顯示詳細的處理信息
- -c<數目> 顯示的字節數
- -n<行數> 顯示文件的尾部 n 行內容
- --pid=PID 與-f合用,表示在進程ID,PID死掉之后結束
- -q, --quiet, --silent 從不輸出給出文件名的首部
- -s, --sleep-interval=S 與-f合用,表示在每次反復的間隔休眠S秒
例如:tail -400f demo.log #監控最后400行日志文件的變化 等價與 tail -n 400 -f (-f參數是實時)
2、less
less 與 more 類似,但使用 less 可以隨意瀏覽文件,而 more 僅能向前移動,卻不能向后移動,而且 less 在查看之前不會加載整個文件。
例如:less demo.log #查看日志文件,支持上下滾屏,查找功能
3、grep
選項與參數:
-a :將 binary 文件以 text 文件的方式搜尋數據
-c :計算找到 '搜尋字符串' 的次數
-i :忽略大小寫的不同,所以大小寫視為相同
-n :順便輸出行號
-v :反向選擇,亦即顯示出沒有 '搜尋字符串' 內容的那一行!
pattern
1、^ 行的開始 ,如'^google'匹配所以以google開頭的行
2、$ 行的結束, 如'goolge$'匹配所以以google結束的行
3、. 匹配一個非換行符('\n')字符, 如‘gr.p'匹配gr后接一個任意字符
4、* 匹配零個或多個先前字符
5、[] 匹配一個指定范圍內的字符,如'[Gg]rep' 匹配Grep和grep
6、[^] 匹配一個不在指定范圍內的字符,如:'[^A-FH-Z]rep'匹配不包含A-F和H-Z的一個字母開頭,緊跟rep的行。
7、\< 錨定單詞的開始,如:'\<grep'匹配包含以grep開頭的單詞的行。
8、\> 錨定單詞的結束,如'grep\>'匹配包含以grep結尾的單詞的行。
9、x\{m\} 重復字符x,m次,如:'o\{5\}'匹配包含5個o的行。
10、x\{m,\} 重復
字符x,至少m次,如:'o\{5,\}'匹配至少有5個o的行。
11、x\{m,n\} 重復字符x,至少m次,不多於n次,如:'o\{5,10\}'匹配5--10個o的行。
12、\w 匹配文字和數字字符,也就是[A-Za-z0-9],如:'G\w*p'匹配以G后跟零個或多個文字或數字字符,然后是p。
13、\W \w的反置形式,匹配一個或多個非單詞字符,如點號句號等。
14、\b 單詞鎖定符,如: '\bgrep\b'只匹配grep。
15、\+ 匹配一個或多個先前的
字符。如:'[a-z]\+able',匹配一個或多個小寫字母后跟able的串,如loveable,enable,disable等。
16、\? 匹配零個或一個先前的字符。如:'gr\?p'匹配gr后跟一個或沒有字符,然后是p的行。
17、a\|b\|c 匹配a或b或c。如:grep|sed匹配grep或sed
18、\(\) 分組符號,如:love\(ab\le\|rs\)ov\+匹配loveable或lovers,匹配一個或多個ov。
實例
1、 ls -l | grep '^a' 通過管道過濾ls -l輸出的內容,只顯示以a開頭的行。
2、 grep 'test' d* 顯示所有以d開頭的文件中包含test的行。
3、 grep 'test' aa bb cc 顯示在aa,bb,
cc文件中匹配test的行。
4、 grep '[a-z]\{5\}' aa 顯示所有包含每個
字符串有5個連續小寫字符的字符串的行。
5、 grep 'w\(es\)t.*\1' aa 如果west被匹配,則es就被存儲到內存中,並標記為1,然后搜索任意個字符(.*),這些字符后面緊跟着另外一個es(\1),找到就顯示該行。如果用egrep或grep -E,就不用"\"號進行轉義,直接寫成'w(es)t.*\1'就可以了。
6、 ps -ef|grep clustal2 查找指定進程“clustal2”
ps -ef|grep clustal2|wc -l 查找指定進程“clustal2”的運行個數
4、uniq
Linux uniq 命令用於檢查及刪除文本文件中重復出現的行列,一般與 sort 命令結合使用。
uniq 可檢查文本文件中重復出現的行列。(注意 uniq命令會刪除文件內容)
- -c或--count 在每列旁邊顯示該行重復出現的次數。
- -d或--repeated 僅顯示重復出現的行列。
testfile中的原有內容為:
$ cat testfile #原有內容 test test test Hello Hello Hello Hello Linux Linux
使用uniq 命令刪除重復的行后,有如下輸出結果:
$ uniq testfile #刪除重復行后的內容 test Hello Linux
檢查文件並刪除文件中重復出現的行,並在行首顯示該行重復出現的次數。使用如下命令:
uniq -c testfile
結果輸出如下:
$ uniq -c testfile #刪除重復行后的內容 3 test #前面的數字的意義為該行共出現了3次 4 Hello #前面的數字的意義為該行共出現了4次 2 Linux #前面的數字的意義為該行共出現了2次
當重復的行並不相鄰時,uniq 命令是不起作用的,即若文件內容為以下時,uniq 命令不起作用:
$ cat testfile1 # 原有內容 test Hello Linux test Hello Linux test
這時我們就可以使用 sort:
$ sort testfile1 | uniq Hello Linux test
統計各行在文件中出現的次數:
$ sort testfile1 | uniq -c 3 Hello 3 Linux 3 test
在文件中找出重復的行:
$ sort testfile1 | uniq -d Hello 95 Linux 85 test 30