logstash匯入日誌並用Kibana視覺化展示
效果
版本號:6.0
配置logstash
管道配置
新建檔案filebeats.conf
input {
#beats {
# port => 5044
#}
file {
path => [ "/usr/local/logstash/data/access.log" ]
start_position => "beginning"
ignore_older => 0
}
}
filter {
grok {
match => {"message" => "%{COMBINEDAPACHELOG}" }
}
geoip {
source => "clientip"
target => "geoip"
#database => "/usr/local/logstash/GeoLiteCity.dat"
add_field => ["[geoip][coordinates]", "%{[geoip][longitude]}"]
add_field => ["[geoip][coordinates]", "%{[geoip][latitude]}"]
}
mutate {
convert => ["[geoip][coordinates]" , "float"]
convert => ["response","integer"]
convert => ["bytes","integer"]
replace => {"type" => "nginx_access"}
remove_field => "message"
}
date {
match => ["create_at", "yyyy-MM-dd HH:mm:ss,SSS", "UNIX"]
target => "@timestamp"
locale => "cn"
}
mutate {
remove_field => "timestamp"
}
}
output {
elasticsearch {
index => "logstash-nginx-access-%{+YYYY.MM.dd}"
hosts => ["192.168.0.166:9200"]
user => "elastic"
password => "*[email protected]="
}
stdout {codec => rubydebug}
}
這個配置檔案只是針對一個日誌檔案,如果想要收集多臺機器上的日誌資料,可以使用Beats。
安裝logstash配置檔案裡的外掛
bin/logstash-plugin install logstash-filter-grok
bin/logstash-plugin install logstash-filter-geoip
bin/logstash-plugin install logstash-filter-mutate
bin/logstash-plugin install logstash-filter-date
啟動
bin/logstash -f filebeats.conf
配置Kibana
登陸Kibana(http://localhost:5601),在Management裡面,新建一個Index Patterns
,注意timestamp格式為data。
然後就可以在Visualize裡就可以新建自己想要的資料展現形式了,有柱狀圖,餅圖。。。
最後可以把上一部新建的圖示集中放在Dashboard裡面了。
參考:
相關推薦
logstash匯入日誌並用Kibana視覺化展示
效果 版本號:6.0 配置logstash 管道配置 新建檔案filebeats.conf input { #beats { # port => 5044 #} file { path =>
大資料視覺化之Nginx伺服器日誌分析及視覺化展示(Nginx+flume+HDFS+Spark+Highcharts)
專案說明: 本專案為一個web程式,能夠利用大資料技術,對nginx伺服器的訪問日誌進行圖形化展示。當訪問此程式時,可以看到nginx日誌中統計出來的全天分時網站點選量等資訊的圖表展示。每條Nginx日誌的平均大小為250位元組左右,假設每天產生1億條訪問日誌
利用 ELK系統分析Nginx日誌並對資料進行視覺化展示
一、寫在前面 結合之前寫的一篇文章:Centos7 之安裝Logstash ELK stack 日誌管理系統,上篇文章主要講了監控軟體的作用以及部署方法。而這篇文章介紹的是單獨監控nginx 日誌分析再進行視覺化圖形展示,並在使用者前端使用nginx 來代理kibana
ELK收集nginx日誌並用高德地圖展示出IP
elk nginx kibana es logstash (一)測試的環境agentd:192.168.180.22ES:192.168.180.23kibana:192.168.180.23采用的拓撲:logstash -->ES-->kibana(二)實施步驟: (1)
Linux(centos7) Elasticsearch6.5叢集安裝與Kibana視覺化
必須要先安全JDK1.8或以上版本,記憶體配置1G以上,最好2G https://www.elastic.co/cn/downloads/elasticsearch#ga-release 官網下載tar 上傳到linux 解壓 tar -zxvf elasticsearch-
UCI庫中Mines vs. Rocks的資料集屬性視覺化展示
資料集描述: 從各種不同的縱橫角度獲得的訊號,每個樣本有60個從不同地點接收到的儀器測量值(每個模式是一組60個數字,範圍為0.0到1.0),最後一個標記岩石(R)和水雷(M) 任務是根據聲納返回的測量資訊,進行分類,從而發現未爆炸的水雷。 data_
scrapydweb:實現 Scrapyd 伺服器叢集監控和互動,Scrapy 日誌分析和視覺化
Scrapyd 伺服器叢集監控和互動 支援通過分組和過濾選中特定伺服器節點 一次點選,批量執行 Scrapy 日誌分析 統計資訊展示 爬蟲進度視覺化 關鍵日誌分類 支援所有 Scrapyd API Deploy project, Run Spider, Stop job List pr
行人重識別(ReID) ——基於MGN-pytorch進行視覺化展示
模型訓練,修改demo.sh,將 --datadir修改已下載的Market1501資料集地址,將修改CUDA_VISIBLE_DEVICES=2,3自己的GPU裝置ID,將修改--nGPU自己的GPU數量。 部分demo.sh示例: #mAP: 0.920
從零到日誌採集索引視覺化、監控報警、rpc trace跟蹤-分散式唯一ID生成
public class UniqueIdGen implements IdGen { // 開始使用該演算法的時間為: 2017-01-01 00:00:00private static final long START_TIME = 1483200000000L;// 時間戳bit數,最多能支援到2
對110W知乎使用者資訊進行分析,使用echarts+servlet+jsp視覺化展示
上一篇介紹了使用scrapy框架爬取知乎資訊,爬取了知乎112W使用者的資訊,接下來是對這些資訊進行分析處理和前端視覺化。 使用的工具 Java web servlet + jsp mysql資料庫 echarts 這裡重點是echarts,是一款百度開發的基於canv
安裝kibana視覺化外掛(SpringBoot整合Elasticsearch)
1. 什麼是kibana Kibana是一個開源的分析和視覺化平臺,設計用於和Elasticsearch一起工作。 你用Kibana來搜尋,檢視,並和儲存在Elasticsearch索引中的資料進行互動。 你可以輕鬆地執行高階資料分析,並且以各種圖示、表格和地圖的形式視覺化資料。 Kibana使
Python3——處理.CSV檔案格式的資料並用matplotlib視覺化
處理CSV檔案格式的資料 highs_lows.py import csv from matplotlib import pyplot as plt from datetime import dat
15分鐘,教你用Python爬網站資料,並用BI視覺化分析!
作為一名在資料行業打拼了兩年多的資料分析師,雖然目前收入還算ok,但每每想起房價,男兒三十還未立,內心就不免彷徨不已~ 兩年時間裡曾經換過一份工作,一直都是從事大資料相關的行業。目前是一家企業的BI工程師,主要工作就是給業務部門出報表和業務分析報告。 回想自己過去的工作成績也還算是不錯的,多
從零到日誌採集索引視覺化、監控報警、rpc trace跟蹤-架構介紹
接下去的幾篇部落格將介紹如何從零開發出一套集零侵入的日誌採集、日誌索引及視覺化、基於日誌監控報警、基於日誌rpc trace跟蹤進行系統性能分析的系統,之後都會稱為監控中心繫統。經測試,該系統的採集以及
從零到日誌採集索引視覺化、監控報警、rpc trace跟蹤-日誌索引
之前說到日誌事件的設計、如何埋點以及基於jvm的程式如何對接我們的系統,接下去我們說下日誌如何進行索引。通過前三篇部落格可以知道資料通過LOGGER.info等列印日誌的函式就可以存入kafka,所以我們對日誌建立索引只需要實時讀kafka寫入es,為了提高實時索引的速率,我
web頁面上視覺化展示JSON資料的方法
0 引言 最近需要做一個介面管理的功能,需要在前端頁面展示從介面獲取到的json資料,我上網查了一些資料,發現有 jquery的一個外掛可以使用:jQuery.json-viewer 。頁面展示的效果很好,但是需要安裝npm包來實現。那麼有沒有不用安裝npm包
從零到日誌採集索引視覺化、監控報警、rpc trace跟蹤-系統上下線監控
public class AppChildrenChangeListener implements PathChildrenCacheListener { private static final Logger LOGGER = LoggerFactory.getLogger(AppChildrenCh
基於ElasticSearch+Logstash+Kibana的日誌分析、儲存、展示
ELK簡介 ELK是一套完整的日誌解決方案,由ElasticSearch、Logstash、 Kibana這三款開源軟體組成。 EastiSearch是基於Lucene開發的分散式儲存檢引擎,用來儲存各類日誌; Logstash對日誌進行收集、分析,並將其儲存供以後使用: Ki
機器學習入門-載入sklearn中資料並用matplotlib進行視覺化
from sklearn import datasets import matplotlib.pyplot as plt def get_data(): """ 從sklearn中獲取鳶尾花的資料 :return: 鳶尾花資料的字典,字典中包括的key有:【'data'
kibana學習-基礎入門-視覺化資料
kibana學習-基礎入門-視覺化資料 在側邊導航欄點選 Visualize 開始視化您的資料。 Visualize 工具能讓您通過多種方式瀏覽您的資料。例如:我們使用餅圖這個重要的視覺化控制元件來檢視銀行賬戶樣本資料中的賬戶餘額。點選螢幕中間