校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 利用shell命令統計日志的方法詳解

利用shell命令統計日志的方法詳解

熱門標簽:申請400電話有什么用 宿松高德地圖標注 網絡電話外呼系統撥號軟件 400電話申請找 貴陽400電話到哪里去辦理 4層電梯外呼控制系統設計 天津智能外呼系統排名 汨羅代理外呼系統 電銷機器人加盟多少錢

前言

大家都知道,通過使用 shell 命令可以很方便地對日志進行統計和分析,當服務有異常的時候,需要去排查日志,那么掌握一種統計日志的技巧就是必不可少的了。

假設有一個包含下面內容的日志文件 access.log。我們以統計這個文件的日志為例。

date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=something | status=200 | time=9.703 | bytes=129 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"
date=2017-09-23 00:00:00 | ip=100.109.222.3 | method=HEAD | url=/api/foo/healthcheck | status=200 | time=0.337 | bytes=10 | referrer="-" | user-agent="-" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=anything | status=200 | time=8.829 | bytes=466 | referrer="-" | user-agent="GuzzleHttp/6.2.0 curl/7.19.7 PHP/7.0.15" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=everything | status=200 | time=9.962 | bytes=129 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=nothing | status=200 | time=11.822 | bytes=121 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"

不同的服務對應的日志可能不一樣,本文使用示例日志的格式是:

date | ip | method | url | status | time | bytes | referrer | user-agent | cookie

注意:mac 系統和 linux 系統中的命令行為可能不同,以下命令請在 linux 系統中使用

排除特殊日志

統計日志時,我們可能不關心 HEAD 請求,或者只關心 GET 請求,這里首先需要篩選日志,可以使用 grep 命令。-v 的含義是排除匹配的文本行。

grep GET access.log # 只統計 GET 請求
grep -v HEAD access.log # 不統計 HEAD 請求
grep -v 'HEAD\|POST' access.log # 不統計 HEAD 和 POST 請求

查看接口耗時情況

我們可以將每行的 time 匹配出來,然后做一個排序。使用 awk 的 match 方法可以匹配正則:

awk '{ match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1]}' access.log

awk 命令使用方法如下:

awk '{pattern + action}' {filenames}

我們實際上只用到了 action:match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1] 這一段。

match 方法接收三個參數:需要匹配的文本、正則表達式、結果數組。$0 代表 awk 命令處理的每一行,結果數組是可選的,因為我們要拿到匹配結果所以這里傳入了一個 result 數組,用來存儲匹配后的結果。

注意這里的正則我沒有使用 \d 來表示數字,因為 awk 指令默認使用 “EREs",不支持 \d 的表示,具體請看 linux shell 正則表達式(BREs,EREs,PREs)差異比較。

result 數組實際上和 javascript 里的結果數組很像了,所以我們打印出第二個元素,即匹配到的內容。執行完這行命令后結果如下:

9.703
0.337
8.829
9.962
11.822

當然實際上一天的日志可能是成千上萬條,我們需要對日志進行排序,且只展示前 3 條。這里使用到 sort 命令。

sort 命令默認從小到大排序,且當作字符串排序。所以默認情況下使用 sort 命令之后 "11" 會排在 "8" 前面。那么需要使用 -n 指定按數字排序,-r 來按從大到小排序,然后我們查看前 3 條:

awk '{ match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1]}' access.log | sort -rn | head -3

結果:

11.822
9.962
9.703

查看耗時最高的接口

當然我們一般不會只查看接口耗時情況,還需要把具體日志也打印出來,上面的命令就不能滿足要求了。

awk 的打印默認是按空格分隔的,意思是 2017-09-23 GET 這一行如果使用 awk '{print $1}' 會打印出 "2017-09-23",類似地,$2 會打印出 GET。

根據日志特征,我們可以使用 | 來作為分隔符,這樣就能打印出各個我們感興趣的值了。因為我們想找出耗時最高的接口,那么我們把 time、date 和 url 單獨找出來。

awk 的 -F 參數用來自定義分隔符。然后我們可以數一下三個部分按 | 分隔后分別是第幾個:time 是第 6 個、date 是第 1 個、url 是第 4 個。

awk -F '|' '{print $6 $1 $4}' access.log

這樣打出來結果為:

 time=9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something
 time=0.337 date=2017-09-23 00:00:00 url=/api/foo/healthcheck
 time=8.829 date=2017-09-23 13:32:50 url=/api/foo/bar?params=anything
 time=9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
 time=11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing

因為我們想按 time 來排序,而 sort 可以按列來排序,而列是按空格分隔的,我們目前第一列是 time=xxx,是不能排序的,所以這里要想辦法把 time= 給去掉,因為我們很雞賊地把耗時放在了第一列,那么其實再通過 time= 進行分隔一下就行了。

awk -F '|' '{print $6 $1 $4}' access.log | awk -F 'time=' '{print $2}'

結果:

9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something
0.337 date=2017-09-23 00:00:00 url=/api/foo/healthcheck
8.829 date=2017-09-23 13:32:50 url=/api/foo/bar?params=anything
9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing

使用 sort 的 -k 參數可以指定要排序的列,這里是第 1 列;再結合上面的排序,就能把耗時最高的日志打印出來了:

awk -F '|' '{print $6 $1 $4}' access.log | awk -F 'time=' '{print $2}' | sort -k1nr | head -3

結果:

11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing
9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something

統計請求次數最多的接口

如果需要統計哪些接口每天請求量是最多的,只需要新引入 uniq 命令。

我們已經可以通過 grep -v HEAD access.log | awk -F '|' '{print $4}' 來篩選出所有的 url,uniq 命令可以刪除 相鄰 的相同的行,而 -c 可以輸出每行出現的次數。

所以我們先把 url 排序以讓相同的 url 放在一起,然后使用 uniq -c 來統計出現的次數:

grep -v HEAD access.log | awk -F '|' '{print $4}' | sort | uniq -c

因為示例日志數量太少,我們假設日志里有多條,那么結果應該類似下面:

1 url=/api/foo/bar?params=anything
19 url=/api/foo/bar?params=everything
4 url=/api/foo/bar?params=nothing
5 url=/api/foo/bar?params=something

接下來再 sort 即可:

grep -v HEAD access.log | awk -F '|' '{print $4}' | sort | uniq -c | sort -k1nr | head -10

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作能帶來一定的幫助,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。

您可能感興趣的文章:
  • shell腳本實現的網站日志分析統計(可以統計9種數據)
  • 使用shell腳本分析網站日志統計PV、404、500等數據

標簽:贛州 烏蘭察布 昌都 撫州 臨沂 海北 廣東 連云港

巨人網絡通訊聲明:本文標題《利用shell命令統計日志的方法詳解》,本文關鍵詞  利用,shell,命令,統計,日志,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《利用shell命令統計日志的方法詳解》相關的同類信息!
  • 本頁收集關于利用shell命令統計日志的方法詳解的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    亚洲成人免费电影| 一区二区三区**美女毛片| 欧美色手机在线观看| 成人av午夜电影| 丁香婷婷综合色啪| 国产成人高清视频| 国产成人亚洲综合a∨猫咪| 国内成+人亚洲+欧美+综合在线| 午夜电影网亚洲视频| 丝袜亚洲另类丝袜在线| 亚洲国产视频直播| 亚洲va在线va天堂| 欧美aaaaaa午夜精品| 精品综合免费视频观看| 久久99九九99精品| 韩国三级在线一区| 国产成人精品在线看| 99久久99久久综合| 欧美性三三影院| 欧美一区二区三区在线观看 | 欧美成人欧美edvon| 欧美mv日韩mv亚洲| 国产亚洲欧美在线| 国产欧美日韩视频一区二区| 亚洲色图欧美偷拍| 亚洲午夜在线观看视频在线| 免费成人你懂的| 国产精品资源网| 91女厕偷拍女厕偷拍高清| 欧美天堂一区二区三区| 日韩精品中午字幕| 国产精品成人一区二区艾草 | 一区二区三区四区视频精品免费 | 国产片一区二区三区| 亚洲欧美日韩国产综合| 丝袜诱惑制服诱惑色一区在线观看| 麻豆一区二区三区| 成人免费毛片a| 欧美午夜片在线观看| 久久精品亚洲乱码伦伦中文| 亚洲男帅同性gay1069| 美国十次了思思久久精品导航| 国产91色综合久久免费分享| 91福利在线观看| 欧美一级爆毛片| 精品国产三级电影在线观看| 亚洲视频一二三区| 亚洲大片一区二区三区| 精品亚洲欧美一区| 91伊人久久大香线蕉| 欧美日韩成人一区二区| 亚洲精品一区二区精华| 中文字幕在线不卡视频| 日日夜夜精品免费视频| 国产精品亚洲а∨天堂免在线| 99在线视频精品| 91精品国产91热久久久做人人| 久久九九久久九九| 亚洲国产一区二区a毛片| 国产精品亚洲专一区二区三区| 韩国成人福利片在线播放| www.成人在线| 国产免费久久精品| 亚洲一区在线视频| 国产一区二区三区免费播放| 在线精品视频免费播放| 久久久亚洲精华液精华液精华液| 国产精品国产三级国产普通话99 | 亚洲精品一区二区三区影院| 亚洲成人一区二区| 成人激情综合网站| 欧美精品一区二| 亚洲国产欧美日韩另类综合| 丁香婷婷综合色啪| 精品国产乱码久久久久久浪潮| 亚洲精品欧美专区| 国产福利一区二区| 日韩一区二区三区电影在线观看 | 日韩精品一区二区三区老鸭窝| 夜夜嗨av一区二区三区网页| 成人v精品蜜桃久久一区| 久久久久久久久久久黄色| 综合亚洲深深色噜噜狠狠网站| 国产精品一区二区男女羞羞无遮挡 | 91国产免费观看| 欧美国产激情一区二区三区蜜月| 六月丁香综合在线视频| 91精品国产入口在线| 亚洲一区在线观看网站| 欧洲日韩一区二区三区| 亚洲日本中文字幕区| av在线一区二区| 久久夜色精品一区| 美女在线观看视频一区二区| 在线成人午夜影院| 爽好多水快深点欧美视频| 欧美亚洲免费在线一区| 亚洲在线观看免费| 欧美影院精品一区| 亚洲成a人v欧美综合天堂| 欧美探花视频资源| 午夜精品一区二区三区三上悠亚| 欧美中文字幕亚洲一区二区va在线| 亚洲免费三区一区二区| 一本大道av伊人久久综合| 亚洲欧美日韩国产手机在线| 激情偷乱视频一区二区三区| 欧美伊人精品成人久久综合97| 国产精品久久久久一区| 国产福利一区在线| 国产精品久久久一本精品| 色哦色哦哦色天天综合| 亚洲mv在线观看| 日韩精品一区二区在线| 国产一区在线观看麻豆| 亚洲精品老司机| 3atv一区二区三区| 极品少妇xxxx精品少妇| 国产欧美中文在线| 色狠狠av一区二区三区| 视频一区在线播放| 精品国产123| 成人免费看视频| 亚洲午夜国产一区99re久久| 日韩一级片在线观看| 蜜乳av一区二区三区| 国产精品毛片高清在线完整版| 在线亚洲一区二区| 黄色资源网久久资源365| 国产精品丝袜久久久久久app| 在线精品观看国产| 国产综合久久久久久久久久久久| 国产精品护士白丝一区av| 欧美久久久一区| 粉嫩av一区二区三区| 天天综合网天天综合色| 中文字幕免费观看一区| 欧美视频三区在线播放| 成人动漫中文字幕| 日韩精品乱码免费| 国产欧美精品一区aⅴ影院 | 国产网站一区二区| 欧美性受xxxx黑人xyx性爽| 久久99久久精品欧美| 亚洲精品成人天堂一二三| 2020日本不卡一区二区视频| 欧美视频日韩视频| 国产精品一区二区无线| 一二三区精品福利视频| 久久久不卡网国产精品二区| 欧美丰满嫩嫩电影| 99re免费视频精品全部| 国产经典欧美精品| 奇米精品一区二区三区在线观看| 伊人开心综合网| 国产精品国产馆在线真实露脸| 337p日本欧洲亚洲大胆色噜噜| 91黄色免费网站| www.成人在线| 国产福利一区在线观看| 久久99精品国产.久久久久| 亚洲资源中文字幕| 国产精品人人做人人爽人人添| 日韩一区二区在线看片| 在线观看欧美精品| 99久久久久免费精品国产| 国产一区二区毛片| 精品在线免费观看| 亚洲一区二区偷拍精品| 亚洲色图欧美激情| 日韩毛片一二三区| 亚洲精品videosex极品| 亚洲另类春色国产| 亚洲一区二区三区四区在线观看| 玉足女爽爽91| 亚洲天堂网中文字| 欧美一级日韩一级| 欧美三区在线观看| 欧美日韩亚洲综合| 欧美精品v日韩精品v韩国精品v| 欧美日韩极品在线观看一区| 欧美疯狂性受xxxxx喷水图片| 欧美性受xxxx| 欧美一级爆毛片| 久久久久九九视频| 中文字幕精品在线不卡| 日韩美女精品在线| 国产精品灌醉下药二区| 亚洲午夜精品久久久久久久久| 亚洲一区二区在线免费观看视频| 亚洲国产精品综合小说图片区| 午夜精品福利在线| 久久99精品国产麻豆婷婷| 国产一区二区三区四区五区入口| 丁香婷婷综合五月| 国产成人三级在线观看| 欧美高清激情brazzers| 久久综合色鬼综合色| 中文字幕永久在线不卡| 午夜亚洲国产au精品一区二区|