Spring cloud微服務安全實戰-7-8ELK+SpringBoot環境搭建


采集不可聚合的離散的。日志信息的e

ELK是三個系統的簡稱
LogStash:用來做日志的收集、過濾、格式轉換
Kibana:和普羅米修斯的grafana一個意思。主要用來展示數據。

用docker來裝ELK的環境



把這個項目克隆到本地

說明里面 告訴你怎么使用。

進入到docker-elk的文件夾下。然后保證當前目錄有這個docker-compose.yml這個文件。


第一次安裝會下載很多東西。


這樣就說明elk的環境就啟動起來了。


收集日志的是5000端口

tcp的端口是看不到頁面的。我們可以來看下 9200和5601


elastic是賬號,changeme是密碼。

因為博主之前已經進來過了。如果是第一次進來是需要輸入賬號和密碼的。本身是沒有界面的,只是提供restful的服務,讓你去采集數據。建索引。

5601的端口


kibana配置的賬號和密碼在這里

kibana是給elasticSearch做展示的 所以下就需要知道elasticSearcg在哪

接入springboot

springboot默認用logback做的日志,需要一個依賴。讓日志輸出到logtash里面去。
搜索logstash logback





創建日志的配置文件

文件的內容不再敲了,直接復制過來的

首先聲明了一個appender 日志的關聯器

class配置的就是jar包里面引用的一個類。作用就是把我們springboot產生的日志。輸出給LogStash,
這里面要配置一個屬性destination。就是告訴springboot。logstash在哪里。

logstash的配置文件配置的端口。

logstash接到日志以后,就會裝給elaticsearch


它會把我們的日志的信息轉換成json格式傳出去,方便我們后面來解析。

把默認的springboot的日志配置。把它再包進來。這樣springboot默認的日志機制依然是生效的。自己又定義了一個appender叫做LogStash

最后寫一下Info級別的日志。同時輸出到LogStash和Console

springboot默認的日志配置文件




base.xml里面又引用了其他的xml文件。

console_log_pattern:就是配置的打印到控制台的日志的格式。

啟動測試

把orderAPi啟動起來,它就會往logstash的5000端口,傳日志了。


啟動后日志就應該進入到es里面 。
登陸Kibana看一下。密碼是changeme




logstash作為es的數據源連上去以后創建的默認索引。


選擇時間戳來過濾日志

這樣就創建出來一個新的索引


可以看到日志



按照時間倒序排列的。

 

結束

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM