shell 在手分析伺服器日誌不愁?
阿新 • • 發佈:2019-01-29
自己的小網站跑在阿里雲的 ECS 上面, 偶爾也去分析分析自己網站伺服器日誌,看看網站的訪問量。看看有沒有黑闊搞破壞!於是收集,整理一些伺服器日誌分析命令,大家可以試試!
awk '{print $1}' log_file|sort|uniq|wc -l
2、檢視某一個頁面被訪問的次數:
grep "/index.php" log_file | wc -l
3、檢視每一個IP訪問了多少個頁面:
awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt
sort -n -t ' ' -k 2 log.txt 配合sort進一步排序
4、將每個IP訪問的頁面數進行從小到大排序:
awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
5、檢視某一個IP訪問了哪些頁面:
grep ^111.111.111.111 log_file| awk '{print $1,$7}'
6、去掉搜尋引擎統計的頁面:
awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l
7、檢視2015年8月16日14時這一個小時內有多少IP訪問:
awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l
8、檢視訪問前十個ip地址