首页 运维 linux运维 Shell 分析日志文件高效命令,超级好用!

Shell 分析日志文件高效命令,超级好用!

Aug 01, 2023 pm 04:47 PM
日志文件 shell


自己的小网站跑在阿里云的ECS上面,偶尔也去分析分析自己网站服务器日志,看看网站的访问量。看看有没有黑客搞破坏!于是收集,整理一些服务器日志分析命令,大家可以试试!

Shell 分析日志文件高效命令,超级好用!

1、查看有多少个IP访问:

awk '{print $1}' log_file|sort|uniq|wc -l
登录后复制

2、查看某一个页面被访问的次数:

grep "/index.php" log_file | wc -l
登录后复制

3、查看每一个IP访问了多少个页面:

awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt  
  
sort -n -t ' ' -k 2 log.txt  # 配合sort进一步排序
登录后复制

4、将每个IP访问的页面数进行从小到大排序:

awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
登录后复制

5、查看某一个IP访问了哪些页面:

grep ^111.111.111.111 log_file| awk '{print $1,$7}'
登录后复制

6、去掉搜索引擎统计的页面:

awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l
登录后复制

7、查看2015年8月16日14时这一个小时内有多少IP访问:

awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l
登录后复制

8、查看访问前十个ip地址

awk '{print $1}' |sort|uniq -c|sort -nr |head -10 access_log
登录后复制

uniq -c 相当于分组统计并把统计数放在最前面

cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10  
  
cat access.log|awk '{counts[$(11)]+=1}; END {for(url in counts) print counts[url], url}
登录后复制

9、访问次数最多的10个文件或页面

cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr | head -10
登录后复制

<span style="outline: 0px;font-size: 17px;">**访问量最大的前20个ip**</span>

cat log_file|awk &#39;{print $11}&#39;|sort|uniq -c|sort -nr|head -20  
  
awk &#39;{print $1}&#39; log_file |sort -n -r |uniq -c | sort -n -r | head -20
登录后复制

10、通过子域名访问次数,依据referer来计算,稍有不准

cat access.log | awk &#39;{print $11}&#39; | sed -e &#39; s/http:\/\///&#39; -e &#39; s/\/.*//&#39; | sort | uniq -c | sort -rn | head -20
登录后复制

11、列出传输大小最大的几个文件

cat www.access.log |awk &#39;($7~/\.php/){print $10 " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登录后复制

12、列出输出大于200000byte(约200kb)的页面以及对应页面发生次数

cat www.access.log |awk &#39;($10 > 200000 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登录后复制

13、如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

cat www.access.log |awk &#39;($7~/\.php/){print $NF " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登录后复制

14、列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

cat www.access.log |awk &#39;($NF > 60 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登录后复制

15、列出传输时间超过 30 秒的文件

cat www.access.log |awk &#39;($NF > 30){print $7}&#39;|sort -n|uniq -c|sort -nr|head -20
登录后复制

16、列出当前服务器每一进程运行的数量,倒序排列

ps -ef | awk -F &#39; &#39; &#39;{print $8 " " $9}&#39; |sort | uniq -c |sort -nr |head -20
登录后复制

17、查看apache当前并发访问数

对比httpd.conf中MaxClients的数字差距多少

netstat -an | grep ESTABLISHED | wc -l
登录后复制

18、可以使用如下参数查看数据

ps -ef|grep httpd|wc -l  
1388
登录后复制

统计httpd进程数,连个请求会启动一个进程,使用于Apache服务器。
表示Apache能够处理1388个并发请求,这个值Apache可根据负载情况自动调整

netstat -nat|grep -i "80"|wc -l  
4341
登录后复制

netstat -an会打印系统当前网络链接状态,而grep -i "80"是用来提取与80端口有关的连接的,wc -l进行连接数统计。
最终返回的数字就是当前所有80端口的请求总数

netstat -na|grep ESTABLISHED|wc -l  
376
登录后复制

netstat -an会打印系统当前网络链接状态,而grep ESTABLISHED 提取出已建立连接的信息。然后wc -l统计
最终返回的数字就是当前所有80端口的已建立连接的总数。

netstat -nat||grep ESTABLISHED|wc
登录后复制

可查看所有建立连接的详细记录

19、输出每个ip的连接数,以及总的各个状态的连接数

netstat -n | awk &#39;/^tcp/ {n=split($(NF-1),array,":");if(n<=2)++S[array[(1)]];else++S[array[(4)]];++s[$NF];++N} END {for(a in S){printf("%-20s %s\n", a, S[a]);++I}printf("%-20s %s\n","TOTAL_IP",I);for(a in s) printf("%-20s %s\n",a, s[a]);printf("%-20s %s\n","TOTAL_LINK",N);}&#39;
登录后复制

20、其他的收集

分析日志文件下 2012-05-04 访问页面最高 的前20个 URL 并排序

cat access.log |grep &#39;04/May/2012&#39;| awk &#39;{print $11}&#39;|sort|uniq -c|sort -nr|head -20
登录后复制

查询受访问页面的URL地址中 含有 www.abc.com 网址的 IP 地址

cat access_log | awk &#39;($11~/\www.abc.com/){print $1}&#39;|sort|uniq -c|sort -nr
登录后复制

获取访问最高的10个IP地址 同时也可以按时间来查询。另外,搜索公众号Linux就该这样学后台回复“Linux”,获取一份惊喜礼包。

cat linewow-access.log|awk &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -10
登录后复制

时间段查询日志时间段的情况

cat log_file | egrep &#39;15/Aug/2015|16/Aug/2015&#39; |awk &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -10
登录后复制

分析2015/8/15 到 2015/8/16 访问"/index.php?g=Member&m=Public&a=sendValidCode"的IP倒序排列

cat log_file | egrep &#39;15/Aug/2015|16/Aug/2015&#39; | awk &#39;{if($7 == "/index.php?g=Member&m=Public&a=sendValidCode") print $1,$7}&#39;|sort|uniq -c|sort -nr
登录后复制
(7里面包含.php的就输出,本句的意思是最耗时的一百个PHP页面
cat log_file |awk &#39;($7~/\.php/){print $NF " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登录后复制
列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat access.log |awk &#39;($NF > 60 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登录后复制
统计网站流量(G)
cat access.log |awk &#39;{sum+=$10} END {print sum/1024/1024/1024}&#39;
登录后复制
统计404的连接
awk &#39;($9 ~/404/)&#39; access.log | awk &#39;{print $9,$7}&#39; | sort
登录后复制
统计http status
cat access.log |awk &#39;{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}&#39;   
cat access.log |awk &#39;{print $9}&#39;|sort|uniq -c|sort -rn
登录后复制
每秒并发
watch "awk &#39;{if($9~/200|30|404/)COUNT[$4]++}END{for( a in COUNT) print a,COUNT[a]}&#39; log_file|sort -k 2 -nr|head -n10"
登录后复制
带宽统计
cat apache.log |awk &#39;{if($7~/GET/) count++}END{print "client_request="count}&#39;   
cat apache.log |awk &#39;{BYTE+=$11}END{print "client_kbyte_out="BYTE/1024"KB"}&#39;
登录后复制
找出某天访问次数最多的10个IP
cat /tmp/access.log | grep "20/Mar/2011" |awk &#39;{print $3}&#39;|sort |uniq -c|sort -nr|head
登录后复制
当天ip连接数最高的ip都在干些什么
cat access.log | grep "10.0.21.17" | awk &#39;{print $8}&#39; | sort | uniq -c | sort -nr | head -n 10
登录后复制
小时单位里ip连接数最多的10个时段
awk -vFS="[:]" &#39;{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}&#39; log_file | sort -n -k 3 -r | head -10
登录后复制
找出访问次数最多的几个分钟
awk &#39;{print $1}&#39; access.log | grep "20/Mar/2011" |cut -c 14-18|sort|uniq -c|sort -nr|head
登录后复制
取5分钟日志
if [ $DATE_MINUTE != $DATE_END_MINUTE ] ;then   
#则判断开始时间戳与结束时间戳是否相等
登录后复制
START_LINE=sed -n "/$DATE_MINUTE/=" $APACHE_LOG|head -n1 
#如果不相等,则取出开始时间戳的行号,与结束时间戳的行号
登录后复制
查看tcp的链接状态*
netstat -nat |awk &#39;{print $6}&#39;|sort|uniq -c|sort -rn   
     
netstat -n | awk &#39;/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}&#39;   
  
netstat -n | awk &#39;/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}&#39;   
     
netstat -n | awk &#39;/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}&#39;   
     
netstat -n |awk &#39;/^tcp/ {print $NF}&#39;|sort|uniq -c|sort -rn   
     
netstat -ant | awk &#39;{print $NF}&#39; | grep -v &#39;[a-z]&#39; | sort | uniq -cnetstat -ant|awk &#39;/ip:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}&#39; |sort -n   
     
netstat -ant|awk &#39;/:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}&#39; |sort -rn|head -n 10   
  
awk &#39;BEGIN{printf ("http_code\tcount_num\n")}{COUNT[$10]++}END{for (a in COUNT) printf a"\t\t"COUNT[a]"\n"}&#39;
登录后复制
查找请求数前20个IP(常用于查找攻来源):
netstat -anlp|grep 80|grep tcp|awk &#39;{print $5}&#39;|awk -F: &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -n20   
  
netstat -ant |awk &#39;/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}&#39; |sort -rn|head -n20
登录后复制
用tcpdump嗅探80端口的访问看看谁最高
牛逼啊!接私活必备的 N 个开源项目!赶快收藏
登录后复制
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." &#39;{print $1"."$2"."$3"."$4}&#39; | sort | uniq -c | sort -nr |head -20
登录后复制
查找较多time_wait连接
netstat -n|grep TIME_WAIT|awk &#39;{print $5}&#39;|sort|uniq -c|sort -rn|head -n20
登录后复制
找查较多的SYN连接
netstat -an | grep SYN | awk &#39;{print $5}&#39; | awk -F: &#39;{print $1}&#39; | sort | uniq -c | sort -nr | more
登录后复制
根据端口列进程
netstat -ntlp | grep 80 | awk &#39;{print $7}&#39; | cut -d/ -f1
登录后复制
查看了连接数和当前的连接数
netstat -ant | grep $ip:80 | wc -l   
netstat -ant | grep $ip:80 | grep EST | wc -l
登录后复制
查看IP访问次数
netstat -nat|grep ":80"|awk &#39;{print $5}&#39; |awk -F: &#39;{print $1}&#39; | sort| uniq -c|sort -n
登录后复制
Linux命令分析当前的链接状况
netstat -n | awk &#39;/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}&#39;  
  
watch "netstat -n | awk &#39;/^tcp/ {++S[\$NF]} END {for(a in S) print a, S[a]}&#39;"   
# 通过watch可以一直监控
登录后复制
LAST_ACK 5   #关闭一个TCP连接需要从两个方向上分别进行关闭,双方都是通过发送FIN来表示单方向数据的关闭,当通信双方发送了最后一个FIN的时候,发送方此时处于LAST_ACK状态,当发送方收到对方的确认(Fin的Ack确认)后才真正关闭整个TCP连接;  
SYN_RECV 30       # 表示正在等待处理的请求数;  
ESTABLISHED 1597  # 表示正常数据传输状态;   
FIN_WAIT1 51      # 表示server端主动要求关闭tcp连接;   
FIN_WAIT2 504     # 表示客户端中断连接;   
TIME_WAIT 1057    # 表示处理完毕,等待超时结束的请求数;
登录后复制
<br/>
登录后复制
登录后复制
Shell 分析日志文件高效命令,超级好用!<br/>
为了跟上AI时代我干了一件事儿,我创建了一个知识星球社群:ChartGPT与副业。想带着大家一起探索ChatGPT和新的AI时代。有很多小伙伴搞不定ChatGPT账号,于是我们决定,凡是这三天之内加入ChatPGT的小伙伴,我们直接送一个正常可用的永久ChatGPT独立账户。
登录后复制
简单说下这个星球能给大家提供什么:
星球分享:
1、不断分享如何使用ChatGPT来完成各种任务,让你更高效地使用ChatGPT,以及副业思考、变现思路、创业案例、落地案例分享。2、分享ChatGPT的使用方法、最新资讯、商业价值。3、探讨未来关于ChatGPT的机遇,共同成长。4、帮助大家解决ChatGPT遇到的问题。5、不定期邀请大咖进行分享。6、提供一整年的售后服务,一起搞副业
星球福利:1、加入星球4天后,就送ChatGPT独立账号。2、邀请你加入ChatGPT会员交流群。3、赠送一份完整的ChatGPT手册和66个ChatGPT副业赚钱手册。
其它福利还在筹划中... 不过,我给你大家保证,加入星球后,收获的价值会远远大于今天加入的门票费用 !
本星球第一期原价399,目前属于试运营,早鸟价139,每超过50人涨价10元,星球马上要来一波大的涨价,如果你还在犹豫,可能最后就要以更高价格加入了。。
早就是优势。建议大家尽早以便宜的价格加入!
登录后复制

声明:本文部分素材转载自互联网,如有侵权立即删除 。

<br/>

往期精彩

<br/>
登录后复制
登录后复制

喜欢本文的朋友们,欢迎长按下图,关注订阅号Linux中文社区


收看更多精彩内容

以上是Shell 分析日志文件高效命令,超级好用!的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
4 周前 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
1 个月前 By 尊渡假赌尊渡假赌尊渡假赌

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

如何在 Windows 11 上安装经典 Shell? 如何在 Windows 11 上安装经典 Shell? Apr 21, 2023 pm 09:13 PM

定制您的操作系统是让您的日常生活更加愉快的绝佳方式。您可以更改用户界面、应用自定义主题、添加小部件等等。因此,我们今天将向您展示如何在Windows11上安装ClassicShell。该程序已经存在了很长时间,并允许您修改操作系统。志愿者现在已经开始运营该组织,该组织于2017年解散。新项目名为OpenShell,目前在Github上可供感兴趣的人使用。&a

PowerShell 部署失败并出现 HRESULT 0x80073D02 问题修复 PowerShell 部署失败并出现 HRESULT 0x80073D02 问题修复 May 10, 2023 am 11:02 AM

您在运行脚本时是否看到此错误消息“Add-AppxPackage:部署失败,HRESULT:0x80073D02,无法安装该包,因为它修改的资源当前正在使用中。PowerShell中出现错误0x80073D02…”?如错误消息所述,当用户在前一个进程运行时尝试重新注册一个或所有WindowsShellExperienceHost应用程序时,确实会发生这种情况。我们已经获得了一些简单的解决方案来快速解决这个问题。修复1–终止体验主机进程您必须在执行powershell命令之前结束

Explorer.exe 在系统启动时不启动 [修复] Explorer.exe 在系统启动时不启动 [修复] Jun 03, 2023 am 08:31 AM

如今,许多Windows用户开始遇到严重的Windows系统问题。问题是系统加载后Explorer.exe无法启动,用户无法打开文件或文件夹。虽然,Windows用户在某些情况下可以使用命令提示符手动打开Windows资源管理器,并且每次系统重新启动或系统启动后都必须这样做。这可能是有问题的,并且是由于下面提到的以下因素造成的。损坏的系统文件。启用快速启动设置。过时或有问题的显示驱动程序。对系统中的某些服务进行了更改。修改后的注册表文件。请记住以上所有因素,我们提出了一些肯定会对用户有所帮助

Linux快速删除文件末尾行的操作步骤 Linux快速删除文件末尾行的操作步骤 Mar 01, 2024 pm 09:36 PM

Linux系统下在处理文件时,有时候需要删除文件末尾的行。这种操作在实际应用中很常见,可以通过一些简单的命令来实现。本文将介绍在Linux系统中快速删除文件末尾行的操作步骤,同时提供具体的代码示例。步骤一:查看文件末尾行在进行删除操作之前,首先需要确认文件的末尾行是哪一行。可以使用tail命令来查看文件的末尾行,具体命令如下:tail-n1filena

以下是 Open Shell Windows 11 无法正常工作问题的修复 以下是 Open Shell Windows 11 无法正常工作问题的修复 Apr 14, 2023 pm 02:07 PM

无法在Windows 11上运行的 Open shell 并不是一个新问题,并且自从这个新操作系统问世以来一直困扰着用户。Open-Shell Windows 11 不工作问题的原因并不具体。它可能是由程序中的意外错误、病毒或恶意软件的存在或损坏的系统文件引起的。对于那些不知道的人,Open-Shell 是 2017 年停产的 Classic Shell 的替代品。您可以查看我们的教程,了解如何在 Windows 11 上安装 Classic Shell。如何替换 Windows 11 的开始菜

在 Windows 上运行 shell 脚本文件的不同方法 在 Windows 上运行 shell 脚本文件的不同方法 Apr 13, 2023 am 11:58 AM

适用于 Linux 的 Windows 子系统第一种选择是使用适用于 Linux 或 WSL 的 Windows 子系统,这是一个兼容层,用于在 Windows 系统上本地运行 Linux 二进制可执行文件。它适用于大多数场景,允许您在 Windows 11/10 中运行 shell 脚本。WSL 不会自动可用,因此您必须通过 Windows 设备的开发人员设置启用它。您可以通过转到设置 > 更新和安全 > 对于开发人员来完成。切换到开发人员模式并通过选择是确认提示。接下来,查找 W

超硬核!11个非常实用的 Python 和 Shell 拿来就用脚本实例! 超硬核!11个非常实用的 Python 和 Shell 拿来就用脚本实例! Apr 12, 2023 pm 01:52 PM

Python 脚本部分实例:企业微信告警、FTP 客户端、SSH 客户端、Saltstack 客户端、vCenter 客户端、获取域名 ssl 证书过期时间、发送今天的天气预报以及未来的天气趋势图;Shell 脚本部分实例:SVN 完整备份、Zabbix 监控用户密码过期、构建本地 YUM 以及上篇文章中有读者的需求(负载高时,查出占用比较高的进程脚本并存储或推送通知);篇幅有些长,还请大家耐心翻到文末,毕竟有彩蛋。Python 脚本部分企业微信告警此脚本通过企业微信应用,进行微信告警,可用于

Python脚本用于监控网络连接并保存到日志文件中 Python脚本用于监控网络连接并保存到日志文件中 Sep 01, 2023 am 10:41 AM

监控网络连接对于确保计算机系统的稳定性和安全性至关重要。无论您是网络管理员还是个人用户,拥有跟踪网络连接和记录相关信息的方法都是非常宝贵的。在这篇博文中,我们将探讨如何创建一个Python脚本来监视网络连接并将数据保存到日志文件中。通过利用Python及其丰富的库的强大功能,我们可以开发一个脚本来定期检查网络状态,捕获相关详细信息(例如IP地址、时间戳和连接状态),并将它们存储在日志文件中以供将来参考。该脚本不仅提供对网络连接的实时洞察,还提供有助于故障排除和分析的历史记录。设置环境在开始编写P

See all articles