Linux下文本處理工具很豐富很強大,例如這樣一個文件:
代碼如下:cat log
www.jb51.net 192.168.1.1
www.jb51.net 192.168.1.1
www.jb51.net 192.168.1.2
ffffffffffffffffff
ffffffffffffffffff
eeeeeeeeeeeeeeeeeeee
fffffffffffffffffff
eeeeeeeeeeeeeeeeeeee
eeeeeeeeeeeeeeeeeeee
gggggggggggggggggggg
可用以下方法去除重復(fù)行:
1.使用uniq/sort刪除重復(fù)行
注意:單純uniq是不行的。
代碼如下:shell> sort -k2n file | uniq > a.out
這里我做了個簡單的測試,當(dāng)file中的重復(fù)行不再一起的時候,uniq沒法刪除所有的重復(fù)行。經(jīng)過排序后,所有相同的行都在相鄰,因此unqi可以正常刪除重復(fù)行。
2.使用用sort+awk命令
注意:單純awk同樣不行,原因同上。
代碼如下: shell> sort -k2n file | awk '{if ($0!=line) print;line=$0}'
也可以使用 awk '!i[$1]++' log;
3.用sort+sed命令,同樣需要sort命令先排序。
代碼如下:shell> sort -k2n file | sed '$!N; /^/(.*/)/n/1$/!P; D'
新聞熱點
疑難解答