首頁 運維 linux運維 Shell 分析日誌檔高效能指令,超好用!

Shell 分析日誌檔高效能指令,超好用!

Aug 01, 2023 pm 04:47 PM
紀錄檔案 shell


自己的小网站跑在阿里云的ECS上面,偶尔也去分析分析自己网站服务器日志,看看网站的访问量。看看有没有黑客搞破坏!于是收集,整理一些服务器日志分析命令,大家可以试试!

Shell 分析日誌檔高效能指令,超好用!

1、查看有多少个IP访问:

awk '{print $1}' log_file|sort|uniq|wc -l
登入後複製

2、查看某一个页面被访问的次数:

grep "/index.php" log_file | wc -l
登入後複製

3、查看每一个IP访问了多少个页面:

awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt  
  
sort -n -t ' ' -k 2 log.txt  # 配合sort进一步排序
登入後複製

4、将每个IP访问的页面数进行从小到大排序:

awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
登入後複製

5、查看某一个IP访问了哪些页面:

grep ^111.111.111.111 log_file| awk '{print $1,$7}'
登入後複製

6、去掉搜索引擎统计的页面:

awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l
登入後複製

7、查看2015年8月16日14时这一个小时内有多少IP访问:

awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l
登入後複製

8、查看访问前十个ip地址

awk '{print $1}' |sort|uniq -c|sort -nr |head -10 access_log
登入後複製

uniq -c 相当于分组统计并把统计数放在最前面

cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10  
  
cat access.log|awk '{counts[$(11)]+=1}; END {for(url in counts) print counts[url], url}
登入後複製

9、访问次数最多的10个文件或页面

cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr | head -10
登入後複製

<span style="outline: 0px;font-size: 17px;">**访问量最大的前20个ip**</span>

cat log_file|awk &#39;{print $11}&#39;|sort|uniq -c|sort -nr|head -20  
  
awk &#39;{print $1}&#39; log_file |sort -n -r |uniq -c | sort -n -r | head -20
登入後複製

10、通过子域名访问次数,依据referer来计算,稍有不准

cat access.log | awk &#39;{print $11}&#39; | sed -e &#39; s/http:\/\///&#39; -e &#39; s/\/.*//&#39; | sort | uniq -c | sort -rn | head -20
登入後複製

11、列出传输大小最大的几个文件

cat www.access.log |awk &#39;($7~/\.php/){print $10 " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登入後複製

12、列出输出大于200000byte(约200kb)的页面以及对应页面发生次数

cat www.access.log |awk &#39;($10 > 200000 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登入後複製

13、如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

cat www.access.log |awk &#39;($7~/\.php/){print $NF " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登入後複製

14、列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

cat www.access.log |awk &#39;($NF > 60 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登入後複製

15、列出传输时间超过 30 秒的文件

cat www.access.log |awk &#39;($NF > 30){print $7}&#39;|sort -n|uniq -c|sort -nr|head -20
登入後複製

16、列出当前服务器每一进程运行的数量,倒序排列

ps -ef | awk -F &#39; &#39; &#39;{print $8 " " $9}&#39; |sort | uniq -c |sort -nr |head -20
登入後複製

17、查看apache当前并发访问数

对比httpd.conf中MaxClients的数字差距多少

netstat -an | grep ESTABLISHED | wc -l
登入後複製

18、可以使用如下参数查看数据

ps -ef|grep httpd|wc -l  
1388
登入後複製

统计httpd进程数,连个请求会启动一个进程,使用于Apache服务器。
表示Apache能够处理1388个并发请求,这个值Apache可根据负载情况自动调整

netstat -nat|grep -i "80"|wc -l  
4341
登入後複製

netstat -an会打印系统当前网络链接状态,而grep -i "80"是用来提取与80端口有关的连接的,wc -l进行连接数统计。
最终返回的数字就是当前所有80端口的请求总数

netstat -na|grep ESTABLISHED|wc -l  
376
登入後複製

netstat -an会打印系统当前网络链接状态,而grep ESTABLISHED 提取出已建立连接的信息。然后wc -l统计
最终返回的数字就是当前所有80端口的已建立连接的总数。

netstat -nat||grep ESTABLISHED|wc
登入後複製

可查看所有建立连接的详细记录

19、输出每个ip的连接数,以及总的各个状态的连接数

netstat -n | awk &#39;/^tcp/ {n=split($(NF-1),array,":");if(n<=2)++S[array[(1)]];else++S[array[(4)]];++s[$NF];++N} END {for(a in S){printf("%-20s %s\n", a, S[a]);++I}printf("%-20s %s\n","TOTAL_IP",I);for(a in s) printf("%-20s %s\n",a, s[a]);printf("%-20s %s\n","TOTAL_LINK",N);}&#39;
登入後複製

20、其他的收集

分析日志文件下 2012-05-04 访问页面最高 的前20个 URL 并排序

cat access.log |grep &#39;04/May/2012&#39;| awk &#39;{print $11}&#39;|sort|uniq -c|sort -nr|head -20
登入後複製

查询受访问页面的URL地址中 含有 www.abc.com 网址的 IP 地址

cat access_log | awk &#39;($11~/\www.abc.com/){print $1}&#39;|sort|uniq -c|sort -nr
登入後複製

获取访问最高的10个IP地址 同时也可以按时间来查询。另外,搜索公众号Linux就该这样学后台回复“Linux”,获取一份惊喜礼包。

cat linewow-access.log|awk &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -10
登入後複製

时间段查询日志时间段的情况

cat log_file | egrep &#39;15/Aug/2015|16/Aug/2015&#39; |awk &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -10
登入後複製

分析2015/8/15 到 2015/8/16 访问"/index.php?g=Member&m=Public&a=sendValidCode"的IP倒序排列

cat log_file | egrep &#39;15/Aug/2015|16/Aug/2015&#39; | awk &#39;{if($7 == "/index.php?g=Member&m=Public&a=sendValidCode") print $1,$7}&#39;|sort|uniq -c|sort -nr
登入後複製
(7里面包含.php的就输出,本句的意思是最耗时的一百个PHP页面
cat log_file |awk &#39;($7~/\.php/){print $NF " " $1 " " $4 " " $7}&#39;|sort -nr|head -100
登入後複製
列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
cat access.log |awk &#39;($NF > 60 && $7~/\.php/){print $7}&#39;|sort -n|uniq -c|sort -nr|head -100
登入後複製
统计网站流量(G)
cat access.log |awk &#39;{sum+=$10} END {print sum/1024/1024/1024}&#39;
登入後複製
统计404的连接
awk &#39;($9 ~/404/)&#39; access.log | awk &#39;{print $9,$7}&#39; | sort
登入後複製
统计http status
cat access.log |awk &#39;{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}&#39;   
cat access.log |awk &#39;{print $9}&#39;|sort|uniq -c|sort -rn
登入後複製
每秒并发
watch "awk &#39;{if($9~/200|30|404/)COUNT[$4]++}END{for( a in COUNT) print a,COUNT[a]}&#39; log_file|sort -k 2 -nr|head -n10"
登入後複製
带宽统计
cat apache.log |awk &#39;{if($7~/GET/) count++}END{print "client_request="count}&#39;   
cat apache.log |awk &#39;{BYTE+=$11}END{print "client_kbyte_out="BYTE/1024"KB"}&#39;
登入後複製
找出某天访问次数最多的10个IP
cat /tmp/access.log | grep "20/Mar/2011" |awk &#39;{print $3}&#39;|sort |uniq -c|sort -nr|head
登入後複製
当天ip连接数最高的ip都在干些什么
cat access.log | grep "10.0.21.17" | awk &#39;{print $8}&#39; | sort | uniq -c | sort -nr | head -n 10
登入後複製
小时单位里ip连接数最多的10个时段
awk -vFS="[:]" &#39;{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}&#39; log_file | sort -n -k 3 -r | head -10
登入後複製
找出访问次数最多的几个分钟
awk &#39;{print $1}&#39; access.log | grep "20/Mar/2011" |cut -c 14-18|sort|uniq -c|sort -nr|head
登入後複製
取5分钟日志
if [ $DATE_MINUTE != $DATE_END_MINUTE ] ;then   
#则判断开始时间戳与结束时间戳是否相等
登入後複製
START_LINE=sed -n "/$DATE_MINUTE/=" $APACHE_LOG|head -n1 
#如果不相等,则取出开始时间戳的行号,与结束时间戳的行号
登入後複製
查看tcp的链接状态*
netstat -nat |awk &#39;{print $6}&#39;|sort|uniq -c|sort -rn   
     
netstat -n | awk &#39;/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}&#39;   
  
netstat -n | awk &#39;/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}&#39;   
     
netstat -n | awk &#39;/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}&#39;   
     
netstat -n |awk &#39;/^tcp/ {print $NF}&#39;|sort|uniq -c|sort -rn   
     
netstat -ant | awk &#39;{print $NF}&#39; | grep -v &#39;[a-z]&#39; | sort | uniq -cnetstat -ant|awk &#39;/ip:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}&#39; |sort -n   
     
netstat -ant|awk &#39;/:80/{split($5,ip,":");++S[ip[1]]}END{for (a in S) print S[a],a}&#39; |sort -rn|head -n 10   
  
awk &#39;BEGIN{printf ("http_code\tcount_num\n")}{COUNT[$10]++}END{for (a in COUNT) printf a"\t\t"COUNT[a]"\n"}&#39;
登入後複製
查找请求数前20个IP(常用于查找攻来源):
netstat -anlp|grep 80|grep tcp|awk &#39;{print $5}&#39;|awk -F: &#39;{print $1}&#39;|sort|uniq -c|sort -nr|head -n20   
  
netstat -ant |awk &#39;/:80/{split($5,ip,":");++A[ip[1]]}END{for(i in A) print A[i],i}&#39; |sort -rn|head -n20
登入後複製
用tcpdump嗅探80端口的访问看看谁最高
牛逼啊!接私活必备的 N 个开源项目!赶快收藏
登入後複製
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." &#39;{print $1"."$2"."$3"."$4}&#39; | sort | uniq -c | sort -nr |head -20
登入後複製
查找较多time_wait连接
netstat -n|grep TIME_WAIT|awk &#39;{print $5}&#39;|sort|uniq -c|sort -rn|head -n20
登入後複製
找查较多的SYN连接
netstat -an | grep SYN | awk &#39;{print $5}&#39; | awk -F: &#39;{print $1}&#39; | sort | uniq -c | sort -nr | more
登入後複製
根据端口列进程
netstat -ntlp | grep 80 | awk &#39;{print $7}&#39; | cut -d/ -f1
登入後複製
查看了连接数和当前的连接数
netstat -ant | grep $ip:80 | wc -l   
netstat -ant | grep $ip:80 | grep EST | wc -l
登入後複製
查看IP访问次数
netstat -nat|grep ":80"|awk &#39;{print $5}&#39; |awk -F: &#39;{print $1}&#39; | sort| uniq -c|sort -n
登入後複製
Linux命令分析当前的链接状况
netstat -n | awk &#39;/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}&#39;  
  
watch "netstat -n | awk &#39;/^tcp/ {++S[\$NF]} END {for(a in S) print a, S[a]}&#39;"   
# 通过watch可以一直监控
登入後複製
LAST_ACK 5   #关闭一个TCP连接需要从两个方向上分别进行关闭,双方都是通过发送FIN来表示单方向数据的关闭,当通信双方发送了最后一个FIN的时候,发送方此时处于LAST_ACK状态,当发送方收到对方的确认(Fin的Ack确认)后才真正关闭整个TCP连接;  
SYN_RECV 30       # 表示正在等待处理的请求数;  
ESTABLISHED 1597  # 表示正常数据传输状态;   
FIN_WAIT1 51      # 表示server端主动要求关闭tcp连接;   
FIN_WAIT2 504     # 表示客户端中断连接;   
TIME_WAIT 1057    # 表示处理完毕,等待超时结束的请求数;
登入後複製
<br/>
登入後複製
登入後複製
Shell 分析日誌檔高效能指令,超好用!<br/>
为了跟上AI时代我干了一件事儿,我创建了一个知识星球社群:ChartGPT与副业。想带着大家一起探索ChatGPT和新的AI时代。有很多小伙伴搞不定ChatGPT账号,于是我们决定,凡是这三天之内加入ChatPGT的小伙伴,我们直接送一个正常可用的永久ChatGPT独立账户。
登入後複製
简单说下这个星球能给大家提供什么:
星球分享:
1、不断分享如何使用ChatGPT来完成各种任务,让你更高效地使用ChatGPT,以及副业思考、变现思路、创业案例、落地案例分享。2、分享ChatGPT的使用方法、最新资讯、商业价值。3、探讨未来关于ChatGPT的机遇,共同成长。4、帮助大家解决ChatGPT遇到的问题。5、不定期邀请大咖进行分享。6、提供一整年的售后服务,一起搞副业
星球福利:1、加入星球4天后,就送ChatGPT独立账号。2、邀请你加入ChatGPT会员交流群。3、赠送一份完整的ChatGPT手册和66个ChatGPT副业赚钱手册。
其它福利还在筹划中... 不过,我给你大家保证,加入星球后,收获的价值会远远大于今天加入的门票费用 !
本星球第一期原价399,目前属于试运营,早鸟价139,每超过50人涨价10元,星球马上要来一波大的涨价,如果你还在犹豫,可能最后就要以更高价格加入了。。
早就是优势。建议大家尽早以便宜的价格加入!
登入後複製

声明:本文部分素材转载自互联网,如有侵权立即删除 。

<br/>

往期精彩

<br/>
登入後複製
登入後複製

#喜歡本文的朋友們,歡迎長按下圖,追蹤訂閱號碼Linux中文社群


收看更多精彩內容

#

以上是Shell 分析日誌檔高效能指令,超好用!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.聊天命令以及如何使用它們
1 個月前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

如何在 Windows 11 上安裝經典 Shell? 如何在 Windows 11 上安裝經典 Shell? Apr 21, 2023 pm 09:13 PM

&lt;p&gt;自訂您的作業系統是讓您的日常生活更加愉快的絕佳方式。您可以變更使用者介面、套用自訂主題、新增小工具等等。因此,我們今天將向您展示如何在Windows11上安裝ClassicShell。 &lt;/p&gt;&lt;p&gt;程式已經存在了很長時間,並允許您修改作業系統。志工現在已經開始運作該組織,該組織於2017年解散。新專案名為OpenShell,目前在Github上可供有興趣的人使用。 &lt;/p&gt;&a

PowerShell 部署失敗並出現 HRESULT 0x80073D02 問題修復 PowerShell 部署失敗並出現 HRESULT 0x80073D02 問題修復 May 10, 2023 am 11:02 AM

您在執行腳本時是否看到此錯誤訊息「Add-AppxPackage:部署失敗,HRESULT:0x80073D02,無法安裝該包,因為它修改的資源目前正在使用中。PowerShell中出現錯誤0x80073D02…」?如錯誤訊息所述,當使用者在前一個進程執行時嘗試重新註冊一個或所有WindowsShellExperienceHost應用程式時,確實會發生這種情況。我們已經獲得了一些簡單的解決方案來快速解決這個問題。修復1–終止體驗主機程序您必須在執行powershell指令之前結束

探險家.exe 在系統啟動時不啟動 [修復] 探險家.exe 在系統啟動時不啟動 [修復] Jun 03, 2023 am 08:31 AM

如今,許多Windows用戶開始遇到嚴重的Windows系統問題。問題是系統載入後Explorer.exe無法啟動,使用者無法開啟檔案或資料夾。雖然,Windows使用者在某些情況下可以使用命令提示字元手動開啟Windows資源管理器,並且每次系統重新啟動或系統啟動後都必須這樣做。這可能是有問題的,並且是由於下面提到的以下因素造成的。損壞的系統檔案。啟用快速啟動設定。過時或有問題的顯示驅動程式。對系統中的某些服務進行了更改。修改後的註冊表文件。請記住以上所有因素,我們提出了一些肯定會對用戶有所幫助

Linux快速刪除檔案末尾行的操作步驟 Linux快速刪除檔案末尾行的操作步驟 Mar 01, 2024 pm 09:36 PM

Linux系統下在處理檔案時,有時候需要刪除檔案末端的行。這種操作在實際應用中很常見,可以透過一些簡單的命令來實現。本文將介紹在Linux系統中快速刪除檔案結尾行的操作步驟,同時提供具體的程式碼範例。步驟一:檢視文件末尾行在進行刪除操作之前,首先需要確認文件的末尾行是哪一行。可以使用tail指令來查看文件的結尾行,具體指令如下:tail-n1filena

以下是 Open Shell Windows 11 無法正常運作問題的修復 以下是 Open Shell Windows 11 無法正常運作問題的修復 Apr 14, 2023 pm 02:07 PM

無法在Windows 11上運行的 Open shell 並不是一個新問題,而且自從這個新作業系統問世以來一直困擾著使用者。 Open-Shell Windows 11 不工作問題的原因並不具體。它可能是由程式中的意外錯誤、病毒或惡意軟體的存在或損壞的系統檔案引起的。對於不知道的人,Open-Shell 是 2017 年停產的 Classic Shell 的替代品。您可以查看我們的教學課程,以了解如何在 Windows 11 上安裝 Classic Shell。如何替換 Windows 11 的開始菜

在 Windows 上執行 shell 腳本檔案的不同方法 在 Windows 上執行 shell 腳本檔案的不同方法 Apr 13, 2023 am 11:58 AM

適用於 Linux 的 Windows 子系統第一種選擇是使用適用於 Linux 或 WSL 的 Windows 子系統,這是一個相容層,用於在 Windows 系統上本機執行 Linux 二進位執行檔。它適用於大多數場景,允許您在 Windows 11/10 中執行 shell 腳本。 WSL 不會自動可用,因此您必須透過 Windows 裝置的開發人員設定來啟用它。您可以透過前往設定 > 更新和安全性 > 對於開發人員來完成。切換到開發人員模式並透過選擇是確認提示。接下來,找 W

超硬核! 11個非常實用的 Python 和 Shell 拿來就用腳本實例! 超硬核! 11個非常實用的 Python 和 Shell 拿來就用腳本實例! Apr 12, 2023 pm 01:52 PM

Python 腳本部分範例:企業微信警告、FTP 用戶端、SSH 用戶端、Saltstack 用戶端、vCenter 用戶端、取得網域名稱ssl 憑證過期時間、傳送今天的天氣預報以及未來的天氣趨​​勢圖;Shell 腳本部分實例:SVN完整備份、Zabbix 監控使用者密碼過期、建置本地YUM 以及上篇文章中有讀者的需求(負載高時,查出佔用比較高的進程腳本並儲存或推播通知);篇幅有些長,也請大家耐心翻到文末,畢竟有彩蛋。 Python 腳本部分企業微信警告此腳本透過企業微信應用,進行微信告警,可用於

Python腳本用於監控網路連線並保存到日誌檔案中 Python腳本用於監控網路連線並保存到日誌檔案中 Sep 01, 2023 am 10:41 AM

監控網路連線對於確保電腦系統的穩定性和安全性至關重要。無論您是網路管理員還是個人用戶,擁有追蹤網路連線和記錄相關資訊的方法都是非常寶貴的。在這篇部落格文章中,我們將探討如何建立Python腳本來監視網路連線並將資料儲存到日誌檔案。透過利用Python及其豐富的庫的強大功能,我們可以開發一個腳本來定期檢查網路狀態,捕獲相關詳細資訊(例如IP位址、時間戳和連接狀態),並將它們儲存在日誌檔案中以供將來參考。該腳本不僅提供對網路連接的即時洞察,還提供有助於故障排除和分析的歷史記錄。設定環境在開始編寫P

See all articles