filebeat 采集文件報錯:dropping too large message of size


背景公司使用的ELK進行日志采集、聚合

業務機器采用filebeat 進行的日志采集。

會有概率出現 ropping too large message of size 1171026 

具體原因就是kafka  對每一條消息的大小進行了限制。

默認是1000000 字節,我們從錯誤中可以看出,當前字節大於這個值,需要做進一步的調整

首先從kafka 配置側

設置

message.max.bytes 默認 1000000,這里可以調成10000000(10MB)

replica.fetch.max.bytes 默認1MB ,這里最少設置成一致 10MB

同時filebeat 也需要進行設置

output.kafka:

     max_message_bytes: 10000000

 

重啟kafka和filebeat使配置生效,這樣就可以找到那條萬惡(為什么萬惡?因為會影響kafka 的性能)的大大大大日志。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM