1,ELK 日志收集
E: Elasticsearch
L: Logstash
K: Kibana
為什么用Elasticsearch 來存儲日志:因為Elasticsearch方便擴展,本來就是處理PB級別的數據,可以存儲足夠多的日志數據。
原理圖大致如下:

2,為什么需要elk+kafka實現分布式日志收集。
因為單純的使用elk 日志收集,進行io讀取,容易數據丟失,logstash太多了,擴展不好。非實時性。
3, Logstash輸入來源有那些?
本地文件、kafka、數據庫、mongdb、redis
4,環境搭建
第一步:搭建Kafka 環境
