ELK 架構之 Logstash 和 Filebeat 安裝配置
閱讀目錄:
- 1. 環境準備
- 2. 安裝 Logstash
- 3. 配置 Logstash
- 4. Logstash 採集的日誌資料,在 Kibana 中顯示
- 5. 安裝配置 Filebeat
- 6. Filebeat 採集的日誌資料,在 Kibana 中顯示
- 7. Filebeat 採集日誌資料,Logstash 過濾
- 8. Filebeat 採集的日誌資料,Logstash 過濾後,在 Kibana 中顯示
上一篇主要說的是 Elasticsearch 和 Kibana 安裝配置,以及服務追蹤資料的處理和展示,日誌資料採集使用的 Spring Cloud Sleuth Zipkin + Stream/RabbitMQ 中介軟體(Service 端配置),然後 Zipkin Server 從佇列中獲取日誌資料,再使用 HTTP 的請求的方式,傳輸並存儲到 Elasticsearch 中,最後 Kibana 進行日誌資料展示。
在 ELK Stack 中,日誌資料採集有單獨的工具,就是 Logstash 和 Beats。
- Logstash 主要是用來日誌的蒐集、分析、過濾日誌的工具,支援大量的資料獲取方式。一般工作方式為 c/s 架構,client 端安裝在需要收集日誌的主機上,server 端負責將收到的各節點日誌進行過濾、修改等操作在一併發往 Elasticsearch 上去。
- Beats 在這裡是一個輕量級日誌採集器,其實 Beats 家族有 6 個成員,早期的 ELK 架構中使用 Logstash 收集、解析日誌,但是 Logstash 對記憶體、cpu、io 等資源消耗比較高。相比 Logstash,Beats 所佔系統的 CPU 和記憶體幾乎可以忽略不計。
目前 Beats 包含六種工具:
- Packetbeat: 網路資料(收集網路流量資料)
- Metricbeat: 指標(收集系統、程序和檔案系統級別的 CPU 和記憶體使用情況等資料)
- Filebeat: 日誌檔案(收集檔案資料)
- Winlogbeat: windows 事件日誌(收集 Windows 事件日誌資料)
- Auditbeat:審計資料(收集審計日誌)
- Heartbeat:執行時間監控(收集系統執行時的資料)
本篇文章目的:
- 1. Logstash 日誌資料採集,Elasticsearch 儲存,Kibana 展示
- 2. Filebeat 日誌資料採集,Elasticsearch 儲存,Kibana 展示
- 3. Filebeat 日誌資料採集,Logstash 過濾,Elasticsearch 儲存,Kibana 展示
第三種方案的實現架構圖:
1. 環境準備
伺服器環境:Centos 7.0(單機版)
Elasticsearch 和 Logstash 需要 Java,Elasticsearch 推薦的版本為 Java 8,安裝教程:確定穩定的 Spring Cloud 相關環境版本
另外,我們需要修改下伺服器主機資訊:
[[email protected] ~]# vi /etc/hostname
node1
[[email protected] ~]# vi /etc/hosts
192.168.0.11 node1
127.0.0.1 node1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 node1 localhost localhost.localdomain localhost6 localhost6.localdomain6
2. 安裝 Logstash
執行以下命令將 Elasticsearch 公共 GPG 金鑰匯入 rpm:
[[email protected] ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
在/etc/yum.repos.d/
目錄中,建立一個名為logstash.repo
的檔案,新增下面配置:
[logstash-5.x]
name=Logstash repository for 5.x packages
baseurl=https://artifacts.elastic.co/packages/5.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
然後安裝 Logstash:
[[email protected] ~]# yum makecache && yum install logstash -y
已載入外掛:fastestmirror
base | 3.6 kB 00:00:00
elasticsearch-5.x | 1.3 kB 00:00:00
extras | 3.4 kB 00:00:00
kibana-5.x | 1.3 kB 00:00:00
logstash-5.x | 1.3 kB 00:00:00
rabbitmq-erlang | 1.3 kB 00:00:00
updates | 3.4 kB 00:00:00
Loading mirror speeds from cached hostfile
* base: mirrors.163.com
* extras: mirrors.163.com
* updates: mirrors.163.com
元資料快取已建立
已載入外掛:fastestmirror
Loading mirror speeds from cached hostfile
* base: mirrors.163.com
* extras: mirrors.163.com
* updates: mirrors.163.com
正在解決依賴關係
--> 正在檢查事務
---> 軟體包 logstash.noarch.1.5.6.9-1 將被 安裝
--> 解決依賴關係完成
依賴關係解決
=====================================================================================================
Package 架構 版本 源 大小
=====================================================================================================
正在安裝:
logstash noarch 1:5.6.9-1 elasticsearch-5.x 98 M
事務概要
=====================================================================================================
安裝 1 軟體包
總下載量:98 M
安裝大小:188 M
Downloading packages:
logstash-5.6.9.rpm | 98 MB 00:06:38
Running transaction check
Running transaction test
Transaction test succeeded
Running transaction
正在安裝 : 1:logstash-5.6.9-1.noarch 1/1
Using provided startup.options file: /etc/logstash/startup.options
/usr/share/logstash/vendor/jruby/bin/jruby:行388: /usr/bin/java: 沒有那個檔案或目錄
Unable to install system startup script for Logstash.
驗證中 : 1:logstash-5.6.9-1.noarch 1/1
已安裝:
logstash.noarch 1:5.6.9-1
完畢!
安裝報錯,具體問題:/usr/share/logstash/vendor/jruby/bin/jruby:行388: /usr/bin/java: 沒有那個檔案或目錄
。
對 Java 配置軟連結,連結到/usr/bin/java
:
[[email protected] ~]# ln -s /usr/local/java/bin/java /usr/bin/java
然後解除安裝 Logstash:
[[email protected] ~]# yum -y remove logstash
重新安裝:
[[email protected] ~]# yum makecache && yum install logstash -y
設定開機啟動,以及啟動系統服務:
[[email protected] ~]# sudo /bin/systemctl daemon-reload
[[email protected] ~]# sudo /bin/systemctl enable logstash.service
先不急啟動 Logstash,需要先配置下 Logstash。
3. 配置 Logstash
採集日誌資料,需要有個資料來源,這裡我們使用 rsyslog 進行測試。
Linux 日誌機制的核心是 rsyslog 守護程序,該服務負責監聽 Linux下 的日誌資訊,並把日誌資訊追加到對應的日誌檔案中,一般在 /var/log 目錄下。 它還可以把日誌資訊通過網路協議傳送到另一臺 Linux 伺服器上,或者將日誌儲存在 MySQL 或 Oracle 等資料庫中。
修改 rsyslog 配置:
[[email protected] ~]# vi /etc/rsyslog.conf
# remote host is: name/ip:port, e.g. 192.168.0.1:514, port optional
*.* @@192.168.1.40:10514
重啟 rsyslog:
[[email protected] ~]# systemctl restart rsyslog
增加配置檔案:
[[email protected] ~]# vi /etc/logstash/conf.d/syslog.conf
input {
syslog {
type => "system-syslog"
port => 10514
}
}
output {
elasticsearch {
hosts => ["node1:9200"] # 定義es伺服器的ip
index => "system-syslog-%{+YYYY.MM}" # 定義索引
}
}
驗證配置檔案,是否有效:
[[email protected] ~]# cd /usr/share/logstash/bin
[[email protected] bin]# ./logstash --path.settings /etc/logstash/ -f /etc/logstash/conf.d/syslog.conf --config.test_and_exit
Sending Logstash's logs to /var/log/logstash which is now configured via log4j2.properties
Configuration OK
啟動 Logstash:
[[email protected] ~]# systemctl start logstash
檢視啟動日誌:
[[email protected] ~]# cat /var/log/logstash/logstash-plain.log
[2018-05-15T08:19:05,578][FATAL][logstash.runner ] An unexpected error occurred! {:error=>#<ArgumentError: Path "/var/lib/logstash/queue" must be a writable directory. It is not writable.>, :backtrace=>["/usr/share/logstash/logstash-core/lib/logstash/settings.rb:439:in `validate'", "/usr/share/logstash/logstash-core/lib/logstash/settings.rb:222:in `validate_value'", "/usr/share/logstash/logstash-core/lib/logstash/settings.rb:138:in `validate_all'", "org/jruby/RubyHash.java:1342:in `each'", "/usr/share/logstash/logstash-core/lib/logstash/settings.rb:137:in `validate_all'", "/usr/share/logstash/logstash-core/lib/logstash/runner.rb:243:in `execute'", "/usr/share/logstash/vendor/bundle/jruby/1.9/gems/clamp-0.6.5/lib/clamp/command.rb:67:in `run'", "/usr/share/logstash/logstash-core/lib/logstash/runner.rb:204:in `run'", "/usr/share/logstash/vendor/bundle/jruby/1.9/gems/clamp-0.6.5/lib/clamp/command.rb:132:in `run'", "/usr/share/logstash/lib/bootstrap/environment.rb:71:in `(root)'"]}
具體錯誤:Path "/var/lib/logstash/queue" must be a writable directory. It is not writable
解決方案:http://www.cnblogs.com/szk5043/articles/8652677.html
執行命令:
[[email protected] ~]# chown -R logstash /var/log/logstash /var/lib/logstash
重新啟動 Logstash:
[[email protected] ~]# systemctl restart logstash
檢視 Logstash 啟動狀態:
[[email protected] ~]# systemctl status logstash
logstash.service - logstash
Loaded: loaded (/etc/systemd/system/logstash.service; enabled)
Active: active (running) since 二 2018-05-15 08:23:37 CEST; 1min 4s ago
Main PID: 10855 (java)
CGroup: /system.slice/logstash.service
└─10855 /usr/bin/java -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:CMSInitiatingOccupan...
5月 15 08:23:37 node1 systemd[1]: Starting logstash...
5月 15 08:23:37 node1 systemd[1]: Started logstash.
5月 15 08:23:46 node1 logstash[10855]: Sending Logstash's logs to /var/log/logstash which is ...ties
Hint: Some lines were ellipsized, use -l to show in full.
檢視埠監聽(是否正常):
[[email protected] ~]# netstat -lntp |grep 9600
tcp6 0 0 127.0.0.1:9600 :::* LISTEN 10855/java
[[email protected] ~]# netstat -lntp |grep 10514
tcp6 0 0 :::10514 :::* LISTEN 10855/java
Logstash 的監聽 IP 是127.0.0.1
這個本地 IP,本地 IP 無法遠端通訊,所以需要修改一下配置檔案,配置一下監聽的 IP(需要設定 IP 地址,不能設定 Hostname):
[[email protected] ~]# vi /etc/logstash/logstash.yml
http.host: "192.168.1.40"
重新啟動 Logstash:
[[email protected] ~]# systemctl restart logstash
檢視埠監聽(是否正常):
[[email protected] ~]# netstat -lntp |grep 9600
tcp6 0 0 192.168.1.40:9600 :::* LISTEN 11214/java
4. Logstash 採集的日誌資料,在 Kibana 中顯示
檢視 Elasticsearch 索引列表,可以看到生成了system-syslog-*
型別的日誌資料:
[[email protected] ~]# curl http://node1:9200/_cat/indices?v
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open twitter k1KnzWyYRDeckjt7GASh8w 5 1 1 0 5.2kb 5.2kb
yellow open .kibana 8zJGQkq8TwC4s3JJLMX44g 1 1 5 0 27.1kb 27.1kb
yellow open system-syslog-2018.05 0aKfJeOmTZ6yen9eSlCOig 5 1 32 0 201.9kb 201.9kb
yellow open zipkin:span-2018-05-15 8vnm9SJvSlK-cAtakK8VeQ 3 1 9 0 47.3kb 47.3kb
yellow open zipkin:span-2018-05-14 TZ-MmJpoSs-NwjHjxEvhFQ 3 1 219 0 127.1kb 127.1kb
yellow open student iZPqPcwrQbifGOfE9DQYvg 5 1 0 0 955b 955b
然後在 Kibana 上面建立system-syslog-*
索引:
建立好之後,就可以看到整個日誌資料了:
其實這裡顯示的日誌資料就是/var/log/messages
檔案裡的資料,因為 Logstash 裡配置的就是收集messages
檔案裡的資料。
以上這就是如何使用 Logstash 收集系統日誌,輸出到 Elasticsearch 伺服器上,並在 Kibana 的頁面上進行檢視。
5. 安裝配置 Filebeat
執行以下命令將 Elasticsearch 公共 GPG 金鑰匯入 rpm:
[[email protected] ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
在/etc/yum.repos.d/
目錄中,建立一個名為elastic.repo
的檔案,新增下面配置:
[elastic-5.x]
name=Elastic repository for 5.x packages
baseurl=https://artifacts.elastic.co/packages/5.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
安裝 Filebeat:
[[email protected] ~]# yum makecache && yum install filebeat -y
設定開機啟動,以及啟動系統服務:
[[email protected] ~]# sudo /bin/systemctl daemon-reload
[[email protected] ~]# sudo /bin/systemctl enable filebeat.service
編輯配置檔案:
[[email protected] ~]# vi /etc/filebeat/filebeat.yml
filebeat.prospectors:
- type: log
paths:
- /var/log/messages # 指定需要收集的日誌檔案的路徑
output.elasticsearch:
# Array of hosts to connect to.
hosts: ["node:9200"] # 配置 Elasticsearch 伺服器的 IP 地址
啟動 Filebeat 服務:
[[email protected] ~]# systemctl start filebeat
檢視 Filebeat 服務狀態:
[[email protected] ~]# systemctl status filebeat
filebeat.service - filebeat
Loaded: loaded (/usr/lib/systemd/system/filebeat.service; enabled)
Active: active (running) since 二 2018-05-15 09:29:44 CEST; 1min 12s ago
Docs: https://www.elastic.co/guide/en/beats/filebeat/current/index.html
Main PID: 12332 (filebeat)
CGroup: /system.slice/filebeat.service
└─12332 /usr/share/filebeat/bin/filebeat -c /etc/filebeat/filebeat.yml -path.home /usr/...
5月 15 09:29:44 node1 systemd[1]: Started filebeat.
6. Filebeat 採集的日誌資料,在 Kibana 中顯示
檢視 Elasticsearch 索引列表,可以看到生成了filebeat-*
型別的日誌資料:
[[email protected] ~]# curl http://node1:9200/_cat/indices?v
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open twitter k1KnzWyYRDeckjt7GASh8w 5 1 1 0 5.2kb 5.2kb
yellow open .kibana 8zJGQkq8TwC4s3JJLMX44g 1 1 6 0 33.3kb 33.3kb
yellow open system-syslog-2018.05 0aKfJeOmTZ6yen9eSlCOig 5 1 689 0 652.3kb 652.3kb
yellow open filebeat-2018.05.15 K852lKlgSaKG6-hE_GNB4w 5 1 27417 0 6.7mb 6.7mb
yellow open zipkin:span-2018-05-15 8vnm9SJvSlK-cAtakK8VeQ 3 1 9 0 47.3kb 47.3kb
yellow open zipkin:span-2018-05-14 TZ-MmJpoSs-NwjHjxEvhFQ 3 1 219 0 127.1kb 127.1kb
yellow open student iZPqPcwrQbifGOfE9DQYvg 5 1 0 0 955b 955b
然後在 Kibana 上面建立filebeat-*
索引:
建立好之後,就可以看到整個日誌資料了:
和上面 Logstash 收集 rsyslog 日誌資料一樣,Filebeat 配置的,也是收集的/var/log/messages
日誌資料。
可以看到,system-syslog
和filebeat-
索引對應的日誌資料,是同步更新的(如果沒效果,重啟下 Logstash 和 Filebeat)。
7. Filebeat 採集日誌資料,Logstash 過濾
先停止 Logstash 和 Filebeat:
[[email protected] ~]# systemctl stop logstash &&
systemctl stop filebeat
然後刪除上面產生的索引日誌資料:
[[email protected] ~]# curl -XDELETE http://node1:9200/system-syslog-2018.05 &&
curl -XDELETE http://node1:9200/filebeat-2018.05.15
建立新的 Logstash 配置檔案:
[[email protected] ~]# vi /etc/logstash/conf.d/logstash-filebeat-syslog.conf
input {
beats {
port => 10515
}
}
filter {
if [type] == "syslog" {
grok {
match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program}(?:\[%{POSINT:syslog_pid}\])?: %{GREEDYDATA:syslog_message}" }
add_field => [ "received_at", "%{@timestamp}" ]
add_field => [ "received_from", "%{host}" ]
}
syslog_pri { }
date {
match => [ "syslog_timestamp", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ]
}
}
}
output {
elasticsearch {
hosts => [ "node1:9200" ]
index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}"
}
}
驗證 Logstash 配置檔案,是否有效:
[[email protected] ~]# cd /usr/share/logstash/bin
[[email protected] bin]# ./logstash --path.settings /etc/logstash/ -f /etc/logstash/conf.d/logstash-filebeat-syslog.conf --config.test_and_exit
Sending Logstash's logs to /var/log/logstash which is now configured via log4j2.properties
Configuration OK
編輯 Filebeat 配置檔案(註釋掉output.elasticsearch
):
[[email protected] ~]# vi /etc/filebeat/filebeat.yml
filebeat.prospectors:
- type: log
paths:
- /var/log/messages # 指定需要收集的日誌檔案的路徑
fields:
log_type: syslog
output.logstash:
# The Logstash hosts
hosts: ["node1:10515"]
重新啟動 Logstash 和 Filebeat:
[[email protected] ~]# systemctl restart logstash &&
systemctl restart filebeat
檢視 Logstash 是否正常監聽:
[[email protected] conf.d]# netstat -lnp|grep 10515
tcp6 0 0 :::10515 :::* LISTEN 22384/java
8. Filebeat 採集的日誌資料,Logstash 過濾後,在 Kibana 中顯示
可以看到生成了filebeat-*
型別的日誌資料(system-syslog-2018.05
索引日誌資料,是由 Logstash 的syslog.conf
配置檔案採集的):
[[email protected] ~]# curl http://node1:9200/_cat/indices?v
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open twitter k1KnzWyYRDeckjt7GASh8w 5 1 1 0 5.2kb 5.2kb
yellow open .kibana 8zJGQkq8TwC4s3JJLMX44g 1 1 7 1 57.4kb 57.4kb
yellow open system-syslog-2018.05 dzRXf3eFQ_-hKqlGILTSJg 5 1 223 0 511.9kb 511.9kb
yellow open zipkin:span-2018-05-15 8vnm9SJvSlK-cAtakK8VeQ 3 1 49 0 142.6kb 142.6kb
yellow open filebeat-2018.05.15 eEuumW8pTdeXa7Ny1gLIPQ 5 1 177 0 300.2kb 300.2kb
yellow open zipkin:span-2018-05-14 TZ-MmJpoSs-NwjHjxEvhFQ 3 1 219 0 127.1kb 127.1kb
yellow open student iZPqPcwrQbifGOfE9DQYvg 5 1 0 0 955b 955b
因為之前建立了filebeat-*
和system-syslog-*
索引,這邊我們可以直接檢視日誌資料了:
以上是使用 ELK Logstash 和 Filebeat 採集日誌資料的過程(使用 rsyslog 日誌資料來源),後面需要將 ELK 整合到 Spring Cloud/Boot 中,用作整個微服務的集中日誌採集處理中心。
參考資料:
相關推薦
ELK 架構之 Logstash 和 Filebeat 安裝配置
閱讀目錄: 1. 環境準備 2. 安裝 Logstash 3. 配置 Logstash 4. Logstash 採集的日誌資料,在 Kibana 中顯示 5. 安裝配置 Filebeat 6. Filebeat 採集的日誌資料,在 Kibana 中顯示 7. Filebeat 採集日誌資料,Logstas
ELK 架構之 Logstash 和 Filebeat 配置使用(採集過濾)
相關文章: ELK 使用步驟:Spring Boot 日誌輸出到指定目錄,Filebeat 進行採集,Logstash 進行過濾,Elasticsearch 進行儲存,Kibana 進行展示。 Filebeat 示例配置(vi /etc/filebeat/filebeat.yml): filebeat.pr
ELk(Elasticsearch, Logstash, Kibana)的安裝配置
目錄 ELk(Elasticsearch, Logstash, Kibana)的安裝配置 1. Elasticsearch的安裝-官網 2. Kibana的安裝配置-官網 3. Logstash的安裝配置-官網 4. 使用ELK收集nginx的訪問日誌 5
saltstack之多節點nginx安裝配置
saltstack 多節點 highstate nginx 多節點nginx安裝配置定義多節點cd /srv/salt vim top.slsbase: ‘server4.lalala.com‘: - nginx.install ‘server1.lalala.com‘: -
Python之路58-Django安裝配置及一些基礎知識點
python目錄一、安裝Django二、創建工程三、創建app四、靜態文件五、模板路徑六、設置settings七、定義路由八、定義視圖九、渲染模板十、運行Django是一款Python的web框架一、安裝Djangopip3 install django安裝完成後C:\Python35\Script下面會生成
kibana 和ES安裝配置常見問題解決
沒有權限 check 運行 denied 加密 clas strong except 配置 1、下載相同版本的kibana和ES: es5.6.5下載地址:https://artifacts.elastic.co/downloads/elasticsearch/elast
VMWare horizon view組件安裝之安全服務器安裝配置
趙廣生 VMware 在安全服務器,雙擊安裝包,打開安裝使用horizon 7 Connection Server的安裝向導接受許可協議 選擇目標文件安裝位置 選擇安裝連接服務器類型,在此我們選擇使用安全服務器,ip協議類型選擇IPV4 輸入要配對的連接服務器ip或者完整主機FQDN名稱 此步驟需要
VMWare horizon view組件安裝之註冊服務器安裝配置
雲計算 虛擬化 在要安裝註冊服務器的主機上下載最新版的軟件包,雙擊軟件包,打開安裝向導 接受許可協議 選擇安裝目標文件夾位置 選擇安裝連接服務器安裝服務器類型 配置防火墻 準備安裝 完成安裝 VMWare horizon view組件安裝之註冊服務器安裝配置
Golang之在centos7 上 安裝配置Go
GO from GOROOT FROM GOPATH 分享這篇文章的主要目的,其實不是如何安裝部署,主要分享一下,安裝成功後,遇到的一個問題。package main imports runtime: cannot find package "runtime" in a
ipython和jupyter安裝配置
shadow 交互式 mark pip 服務 ipy 我們 lob index pip通用配置pip是python的包管理工具,3.x的版本直接帶,可以直接使用,和Yum一樣,為了使用國內鏡像,如下配置Linux系統:$ mkdir ~/.pip$vim ~/.pip/pi
linux下nginx、php和mysql安裝配置
一、安裝nginx 安裝nginx yum install -y epel-release yum install nginx -y 檢視nginx軟體包包括了哪些檔案 rpm -ql nginx 啟動nginx systemctl start nginx 檢視ng
ELK 6.4.3 OSS版本安裝配置
OSS版本是遵守Apache 2.0 licensed的,屬於開源專案。 Elasticsearch OSS 倒排索引服務 Elasticsearch OSS 6.4.3 下載地址: https://www.elastic.co/downloads/past-releases/e
JDK和Tomcat安裝配置
JDK1.8:https://pan.baidu.com/s/18pshIIfkUdz-ekILM57qAw 提取碼:ecac Tomcat:https://pan.baidu.com/s/1XHdH2L46vRQW97xAIGxnxg 提取碼:o3sr JDK和Tom
Elastic Search 學習入門之Elastic Search的安裝配置
ElasticSearch是什麼 普通的檢索: 從網頁/文章中,找到對應的關鍵字資訊。搜尋引擎: 通過關鍵字,找到對應的網頁,為了實現這個搜尋引擎,在檢索過程彙總,關鍵字可能出現標題,正文,摘要等等,需要在相應的多個欄位中新增索引。 在資料庫中檢索的時候,使用like關鍵字,
Elasticsearch之Logstash壓縮包安裝及同步mysql資料
Elasticsearch之Logstash壓縮包安裝及同步mysql資料 一:安裝logstash 一:安裝logstash 1.從官網下載.tar.gz壓縮包 下載地址為:https://www.elastic.co/do
Unity3D開發之安卓JDK安裝配置
一.官網下載JDK. 二:安裝JDK和JRE。注意在安裝之前右鍵JDK的屬性裡數字簽名。只有數字簽名正常JDK才可以被正確安裝。安裝就是下一步下一步。JDK和jre不可以安裝在同一個資料夾裡。可以並列在同一個目錄下。 三:配置環境變數。右鍵我的電腦,選擇屬性,高階系統選項,環境變數
Linux 之 使用者和組的配置檔案
使用者配置檔案(使用者資訊):/etc/passwd 含義:使用者名稱:口令:使用者標識號:組標識號:註釋性描述:主目錄:登陸shell 組配置檔案(組資訊):/etc/group 含義:組名:口令:組標識號:組內使用者列表(使用者列表被處理,這裡不顯示) 口
python3 [爬蟲入門實戰]爬蟲之mongoDB資料庫的安裝配置與視覺化
從安裝過程到視覺化工具可檢視資料資訊,歷時兩天,昨天坐了一天的火車,今天早上才到的青島–> 來放鬆心情。 前天說是要學習如何使用mongoDB的連結與安裝。 到今天過去了將一天, 不過還是在函兮的嘮叨下慢慢的安裝好了,確實來之不易,一臉懵逼
mysql高可用架構之MHA和mysql日誌優化
一、MHA簡介: MHA(Master High Availability)目前在MySQL高可用方面是一個相對成熟的解決方案,它由日本DeNA公司youshimaton(現就職於 Facebook公司)開發,是一套優秀的作為MySQL高可用性環境下故障切換和主從提升的高可用軟體。在M
Redis之——CentOS 6.5安裝配置redis
1、安裝需要的支援環境 在安裝Redis之前首要先做的是安裝Unix的Tcl工具,如果不安裝的話後期將無法對Redis進行測試。在後期執行make test的時候返回如下錯誤資訊:You need tcl 8.xuyao de5 or newer in order to