采集不可聚合的離散的。日志信息的e
ELK是三個系統的簡稱
LogStash:用來做日志的收集、過濾、格式轉換
Kibana:和普羅米修斯的grafana一個意思。主要用來展示數據。
用docker來裝ELK的環境
把這個項目克隆到本地
說明里面 告訴你怎么使用。
進入到docker-elk的文件夾下。然后保證當前目錄有這個docker-compose.yml這個文件。
第一次安裝會下載很多東西。
這樣就說明elk的環境就啟動起來了。
收集日志的是5000端口
tcp的端口是看不到頁面的。我們可以來看下 9200和5601
elastic是賬號,changeme是密碼。
因為博主之前已經進來過了。如果是第一次進來是需要輸入賬號和密碼的。本身是沒有界面的,只是提供restful的服務,讓你去采集數據。建索引。
5601的端口
kibana配置的賬號和密碼在這里
kibana是給elasticSearch做展示的 所以下就需要知道elasticSearcg在哪
接入springboot
springboot默認用logback做的日志,需要一個依賴。讓日志輸出到logtash里面去。
搜索logstash logback
創建日志的配置文件
文件的內容不再敲了,直接復制過來的
首先聲明了一個appender 日志的關聯器
class配置的就是jar包里面引用的一個類。作用就是把我們springboot產生的日志。輸出給LogStash,
這里面要配置一個屬性destination。就是告訴springboot。logstash在哪里。
logstash的配置文件配置的端口。
logstash接到日志以后,就會裝給elaticsearch
它會把我們的日志的信息轉換成json格式傳出去,方便我們后面來解析。
把默認的springboot的日志配置。把它再包進來。這樣springboot默認的日志機制依然是生效的。自己又定義了一個appender叫做LogStash
最后寫一下Info級別的日志。同時輸出到LogStash和Console
springboot默認的日志配置文件
base.xml里面又引用了其他的xml文件。
console_log_pattern:就是配置的打印到控制台的日志的格式。
啟動測試
把orderAPi啟動起來,它就會往logstash的5000端口,傳日志了。
啟動后日志就應該進入到es里面 。
登陸Kibana看一下。密碼是changeme
logstash作為es的數據源連上去以后創建的默認索引。
選擇時間戳來過濾日志
這樣就創建出來一個新的索引
可以看到日志
按照時間倒序排列的。
結束