Linux去重命令uniq(轉)


注意:需要先排序sort才能使用去重。

Linux uniq命令用於檢查及刪除文本文件中重復出現的行列。

uniq可檢查文本文件中重復出現的行列。

語法

uniq [-cdu][-f<欄位>][-s<字符位置>][-w<字符位置>][--help][--version][輸入文件][輸出文件]

參數

-c或--count 在每列旁邊顯示該行重復出現的次數。
-d或--repeated 僅顯示重復出現的行列。
-f<欄位>或--skip-fields=<欄位> 忽略比較指定的欄位。
-s<字符位置>或--skip-chars=<字符位置> 忽略比較指定的字符。
-u或--unique 僅顯示出一次的行列。
-w<字符位置>或--check-chars=<字符位置> 指定要比較的字符。
--help 顯示幫助。
--version 顯示版本信息。
[輸入文件] 指定已排序好的文本文件。
[輸出文件] 指定輸出的文件。

實例

文件testfile中第2 行、第5 行、第9 行為相同的行,使用uniq命令刪除重復的行,可使用以下命令:

uniq testfile 

testfile中的原有內容為:

cat testfile      
#原有內容  
test 30  
test 30  
test 30  
Hello 95  
Hello 95  
Hello 95  
Hello 95  
Linux 85  
Linux 85

使用uniq命令刪除重復的行后,有如下輸出結果:

uniq testfile     
#刪除重復行后的內容  
test 30  
Hello 95  
Linux 85

檢查文件並刪除文件中重復出現的行,並在行首顯示該行重復出現的次數。使用如下命令:

uniq-c testfile 

結果輸出如下:

uniq-ctestfile      
#刪除重復行后的內容  
3 test 30             #前面的數字的意義為該行共出現了3次  
4 Hello 95            #前面的數字的意義為該行共出現了4次  
2 Linux 85            #前面的數字的意義為該行共出現了2次 

 

轉自:http://www.runoob.com/linux/linux-comm-uniq.html

 

參考:

http://www.jb51.net/article/69277.htm


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM