linux命令使用 cut-sort-uniq
1. 统计log中网址出现次数
我记得之前去XX网面试的那个面试题是这样的:有个apache.log 文件文本内容如下:
[niewj@centSvr ~]$ cat apache.log
http://www.163.com/1.html
http://www.sohu.com/index.html
http://www.sina.com/index.html
http://www.sohu.com/3.html
http://www.163.com/2.html
http://www.163.com/3.html
要求统计出结果如下的内容:
3 www.163.com
1 www.sina.com
2 www.sohu.com
除了awk/sed可实现
2. 用cut/sort/uniq亦可实现
[niewj@centSvr ~]$ cut -d/ -f3 apache.log
www.163.com
www.sohu.com
www.sina.com
www.sohu.com
www.163.com
www.163.com
[niewj@centSvr ~]$ cut -d/ -f3 apache.log |uniq -c
1 www.163.com
1 www.sohu.com
1 www.sina.com
1 www.sohu.com
2 www.163.com
[niewj@centSvr ~]$ cut -d/ -f3 apache.log |sort |uniq -c
3 www.163.com
1 www.sina.com
2 www.sohu.com
结果便出来了。
—[2014-11-06]—
转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 hi@niewj.com