ELK之八----Logstash結合kafka收集系統日志和nginx日志


一、logstash結合kafka收集系統日志和nginx日志

架構圖:

環境准備:

A主機:kibana、elasticsearch,有條件可以將兩個服務器分開:192.168.7.100

B主機:logstash主機:192.168.7.101/nginx服務器也在此主機上

C主機:logstash主機:192.168.7.102

D主機:kafka/zookeeper:192.168.7.104

E主機:kafka/zookeeper:192.168.7.105

1、使用logstash-B主機收集系統日志和nginx日志寫入kafka

1、我們在搭建完kafka及zookeeper的基礎上,選擇提取zookeeper的leader的主機進行存儲

[root@tomcat-web2 ~]# /usr/local/zookeeper/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: leader  # 查看到192.168.7.105主機是leader模式

2、在logstash主機/etc/logstash/conf.d/目錄下創建收集系統日志和nginx日志的文件

[root@logstash-1 conf.d]# cat log-to-kafka.conf 
input {
  file {
    path => "/var/log/messages"
    type => "kafka-syslog-log-7-101" # 定義系統日志類型
    start_position => "beginning"
    stat_interval => "2"
  }

  file {
    path => "/var/log/nginx/access.log"
    type => "kafka-nginx-access-log-7-101" # 定義nginx的日志類型
    start_position => "beginning"
    stat_interval => "2"
    codec => "json"  # 如果是json格式的日志,必須寫入json格式
  }
}

output {
 if [type] == "kafka-syslog-log-7-101" {
    kafka {
      topic_id => "kafka-syslog-log-7-101"
      bootstrap_servers => "192.168.7.105:9092"  # 指定寫入到kafka的leader主機的IP地址上
      codec => "json" # 寫入的時候使用json編碼,因為logstash收集后會轉換為json格式
    }
  file {
    path => "/tmp/syslog.log" # 將收集到的訪問系統的日志臨時存在此文件下,方便排錯,解決問題后,可以刪除此兩項
   }}


 if [type] == "kafka-nginx-access-log-7-101" {
    kafka {
      topic_id => "kafka-nginx-access-log-7-101"
      bootstrap_servers => "192.168.7.105:9092" # 指定寫入到kafka主機的IP地址
      codec => "json" # 寫入的時候使用json編碼,因為Logstash收集后會轉換為json格式
    }
 file {
    path => "/tmp/nginx-access.log" # 臨時先存放在此文件下,方便排錯,如果沒有錯誤,可以刪除此項
   }}
}

2、驗證logstash配置文件的正確性

[root@logstash-1 conf.d]# logstash -f log-to-kafka.conf

3、開始訪問nginx網頁,(192.168.7.101:80)再查看訪問的臨時log信息

 4、在logstash主機上測試系統日志訪問情況

[root@logstash-1 ~]# echo 1 >> /var/log/messages
[root@logstash-1 ~]# echo 2 >> /var/log/messages
[root@logstash-1 ~]# echo 3 >> /var/log/messages 

5、查看此時的臨時文件信息

 此時測試logstash收集到日志寫入到kafka中正常,可以將測試的file部分腳本刪除掉,然后啟動logstash服務。

  file {
    path => "/tmp/syslog.log" # 刪除掉兩個測試部分
   }

 file {
    path => "/tmp/nginx-access.log"
   }

啟動D主機的logstash服務。

# systemctl start logstash

2、配置logstash-C主機從kafka讀取系統日志和nginx日志

1、在logstash-A主機的/etc/logstash/conf.d/目錄下創建一個收集kafka配置文件

input {
   kafka {
      topics => "kafka-syslog-log-7-101"
      bootstrap_servers => "192.168.7.105:9092"  # 從kafka的leader主機上提取緩存
      codec => "json"  # 在提取kafka主機的日志時,需要寫成json格式
   }

[root@logstash conf.d]# vim kafka-to-es_logstash.conf 
    kafka {
      topics => "kafka-nginx-access-log-7-101"
      bootstrap_servers => "192.168.7.105:9092" # 從kafka的leader主機提取數據
      codec => "json"  # 提取kafka日志時,需要寫成json格式
   }

}



output {
  if [type] == "kafka-syslog-log-7-101" {  # 轉到elasticsearch主機上
   elasticsearch {
      hosts => ["192.168.7.100:9200"]
      index => "kafka-syslog-7-101-%{+YYYY.ww}" # YYYY代表年,ww代表周
    }}

  if [type] == "kafka-nginx-access-log-7-101" {  # 轉到elasticsearch主機上
   elasticsearch {
      hosts => ["192.168.7.100:9200"]
      index => "kafka-nginx-access-log-7-101-%{+YYYY.MM.dd}"
    }}
}

2、啟動logstash-B主機的服務器

# systemctl start logstash

3、在head插件上查看收集到的信息,已經收集到了syslog和nginx的log

3、在kibana網頁上創建索引

1、在kibana創建索引

2、在discover查看nginx日志信息

3、在logstash-D主機的系統日志中輸入信息,在discover查看系統日志信息

[root@logstash-1 conf.d]# echo  1 >> /var/log/messages
[root@logstash-1 conf.d]# echo  2 >> /var/log/messages
[root@logstash-1 conf.d]# echo  3 >> /var/log/messages

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM