使用SQL進行IIS日誌中的訪問記錄統計
一、建立表結構
IIS日誌中開頭處的第4條用#Fields標明瞭欄位,以其後的內容作為欄位名建立一個表,每個欄位的型別均為NVARCHAR,欄位長度設為2000
二、使用bulk insert語句匯入日誌
BULK INSERT test.iis29
FROM 'd:\ ex120629.log'
WITH
(
FIELDTERMINATOR =' ',
ROWTERMINATOR =' \n'
)
三、查詢統計
1、查詢每個IP的訪問次數
select [c-ip] ,COUNT([c-ip]) b from iis29 group by [c-ip] order by b desc
2、每個IP訪問單個頁面的次數統計
select [c-ip] ,[cs-uri-stem],count([c-ip]) b from iis29
group by [c-ip],[cs-uri-stem]
order by b desc
相關推薦
使用SQL進行IIS日誌中的訪問記錄統計
一、建立表結構 IIS日誌中開頭處的第4條用#Fields標明瞭欄位,以其後的內容作為欄位名建立一個表,每個欄位的型別均為NVARCHAR,欄位長度設為2000 二、使用bulk insert語句匯入日誌 BULK INSERT test.iis29 FRO
分析IIS日誌(根據訪問IP數量進行排序)
IIS日誌格式: 2008-12-29 09:02:39 192.168.100.3 - 192.168.100.10 80 GET /index.php?id=100 ..................................... cat ex081229.log|awk '{pr
java mybatis學習之$和#區別,mapper代理接口,動態SQL,在日誌中輸出mybatis的sql語句
except 控制臺 處理方式 ron target 技術分享 需要 prefix job 1.在mybatis中,$和#的區別: #{}:表示一個預處理參數,參數類型不定,是根據傳入的參數類型來設定的。類似於JDBC中的? 特例使用,模糊查詢:(針對oracle): an
IIS 6中訪問 .rmvb出錯的原因
文件 eal 計算 解決 http 擴展 real mime類型 支持 訪問這些類型時,會返回以下信息: HTTP 錯誤 404 - 文件或目錄未找到。 原因分析: IIS6.0取消了對某些MIME類型的支持,例如ISO,RMVB,致使客戶端下載出錯。 解決方法:
使用python找出nginx訪問日誌中訪問次數最多的10個ip排序生成網頁
#encoding=utf-8 # 找到日誌中的top 10,日誌格式如下 #txt = '''100.116.167.9 - - [22/Oct/2017:03:55:53 +0800] "HEAD /check HTTP/1.0" 200 0 "-" "-" "-" ut = 0.001''' #n
SparkSQL結合SparkStreaming,使用SQL完成實時計算中的資料統計
關鍵字:SparkSQL、Spark Streaming、SQL、實時計算 Flume+Kafka+SparkStreaming已經發展為一個比較成熟的實時日誌收集與計算架構,利用Kafka,即可以支援將用於離線分析的資料流到HDFS,又可以同時支撐多個消費者實時消費資料,包括SparkStreamin
Sql Server 從日誌中恢復誤刪除或誤Update的資料
最近在研究SQL Server日誌,基本明白日誌的記錄方式。 如果資料庫在建立時 “恢復模式”是“完整”模式,那麼,在對資料庫做的任何操作都會記錄在LDF日誌檔案中,所以有時我們發現LDF日誌檔案要比MDF資料檔案都大。 看一下軟體介面: 軟體基本功能就是讀取LDF日誌檔
在上遊服務器日誌中記錄訪問IP
nginx 代理在nginx代理服務器的/etc/nginx/conf.d/中建立nginx-2.conf的子配置文件,內容如下: 第一行和 // 後為解釋內容 編輯完成之後測試代碼: nginx -t 顯示成功重啟nginx服務 在Apache上遊服務器中修改http主配置文件(/etc/httpd/
統計日誌檔案中訪問數量,Spark中加強版WordCount
寫在前面 學習Scala和Spark基本語法比較枯燥無味,搞搞簡單的實際運用可以有效的加深你對基本知識點的記憶,前面我們完成了最基本的WordCount功能的http://blog.csdn.net/whzhaochao/article/details/72358215,這篇主
IIS日誌——統計IP訪問次數的一種方法
cto images 服務器 href parse ddc 結果 mark 使用 使用LogParser對IIS服務器被Hit訪問的IP進行次數統計,方便結合防火墻IP***列表對IIS網站進行日誌審計報表的編寫 配置IIS網站的日誌 下載進行日誌分析的兩個工具Lo
ThreadLocal 在記錄操作日誌中的應用
boolean bsp cti @override long med span 字段 中文 ThreadLocal,很多地方叫做線程本地變量,也有些地方叫做線程本地存儲,其實意思差不多。可能很多朋友都知道ThreadLocal為變量在每個線程中都創建了一個副本,那麽每
使用一條sql查詢多個表中的記錄數
nbsp lec sel code spa select bold style 查詢 方法一: select t1.num1,t2.num2,t3.num3 from (select count(*) num1 from table1) t1, (se
Nginx 日誌中記錄cookie
nginx因開發要求,在Nginx日誌中需要記錄Cookie信息,以便開發查詢系統發生了什麽,我的日誌是以json格式顯示,需要在nginx.conf文件中添加如下信息:1,#vim nginx.confhttp { include mime.types; default_type
F5負載的應用IIS日誌記錄的不是真實IP的處理方法
mage 日誌 .cn 如果 應該 沒有 名稱 技術 https 如果沒有這一項,在服務裏添加上 將F5XForwardedFor.dll拷貝到應用目錄下 添加篩選器: 名稱:F5XForwardedFo
使用Mysql慢查詢日誌對有效率問題的SQL進行監控
問題 使用 寫入 glob 成了 show 單位 命令 lob 輸入命令:show variables like ‘slow%‘ 可以發現 slow_query_log 為 OFF(默認),表示未開啟慢查詢日誌 slow_query_lo
在linux中使用shell來分析統計日誌中的信息
brush pri 臨時文件 日誌文件 all mmd 監控 bash 特定 在運維工作中,要經常分析後臺系統的日誌,通過抓取日誌中的關鍵字信息,對抓取結果進行統計,從而為監控結果提供基礎數據。下面的shell演示了如何從大量的日誌中取得想要的統計結果。其中展示了各種有趣的
在T-SQL語句中訪問遠程數據庫
school 本地 customer its date rom rowset update 登陸名 1、啟用Ad Hoc Distributed Queries 在使用openrowset/opendatasource前搜先要啟用Ad Hoc Distributed Que
nginx訪問日誌配置+日誌切割+不記錄靜態文件日誌+設置靜態文件過期時間
nginx日誌 nginx日誌切割 nginx設置靜態文件過期時間與不記錄 nginx設置日誌格式 nginx訪問日誌 查看nginx.conf文件 vim /usr/local/nginx/conf/nginx.conf 中間有一行是定義log的格式 log_format combined_
Apache訪問日誌、訪問日誌不記錄靜態文件、訪問日誌切割
Apache訪問日誌 訪問日誌不記錄靜態文件 訪問日誌切割 1、Apache 訪問日誌 輸入命令 cat /usr/local/apache2.4/conf/extra/httpd-vhosts.conf,回車,見下圖,這個虛擬機的訪問日誌就在 /logs/111.com-access_log
python統計apache、nginx訪問日誌IP訪問次數並且排序(顯示前20條)
als apache orm item lambda roo oot ipaddr str 前言:python統計apache、nginx訪問日誌IP訪問次數並且排序(顯示前20條)。其實用awk+sort等命令可以實現,用awk數組也可以實現,這裏只是用python嘗試下