记录几条博主经常使用的日志分析命令,当然,现在博主都使用hadoop来进行分析了。不过命令还是留个记录,备用!

1.根据访问IP统计UV

awk '{print $1}'  localhost_access_log.2018-01-09.txt|sort | uniq -c |wc -l

2.统计访问URL统计PV

awk '{print $7}' access.log|wc -l

awk '{print $7}' localhost_access_log.2018-01-09.txt|wc -l

3.查询访问最频繁的URL

awk '{print $7}' localhost_access_log.2018-01-09.txt| uniq -c |sort -n -k 1 -r|more


4.查询访问最频繁的IP

awk '{print $1}' localhost_access_log.2018-01-09.txt|sort | uniq -c |sort -n -k 1 -r|more

5.根据时间段统计查看日志

cat  access.log| sed -n '/14\/Mar\/2015:21/,/14\/Mar\/2015:22/p'|more

6.每秒访问数

cut -d ' ' -f 4 localhost_access_log.2016-05-23.txt|sort|uniq -c

7.每分访问数

cut -d : -f 2-3 localhost_access_log.2018-01-09.txt|sort|uniq -c

8查看apache的进程数 

ps -aux | grep httpd | wc -l 

9.分析日志查看当天的ip连接数 

cat default-access_log | grep "10/Dec/2010" | awk '{print $2}' | sort | uniq -c | sort -nr 

10.查看指定的ip在当天究竟访问了什么url 

cat default-access_log | grep "10/Dec/2010" | grep "218.19.140.242" | awk '{print $7}' | sort | uniq -c | sort -nr 

11.查看当天访问排行前10的url 

cat localhost_access_log.2018-01-09.txt | grep "09/Jan/2018" | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10 

12.看到指定的ip究竟干了什么 

cat default-access_log | grep 218.19.140.242 | awk '{print $1"\t"$8}' | sort | uniq -c | sort -nr | less 

13.查看访问次数最多的几个分钟(找到热点) 

awk '{print $4}' default-access_log |cut -c 14-18|sort|uniq -c|sort -nr|head

05-16 22:19