背景公司使用的ELK進行日志采集、聚合
業務機器采用filebeat 進行的日志采集。
會有概率出現 ropping too large message of size 1171026
具體原因就是kafka 對每一條消息的大小進行了限制。
默認是1000000 字節,我們從錯誤中可以看出,當前字節大於這個值,需要做進一步的調整
首先從kafka 配置側
設置
message.max.bytes 默認 1000000,這里可以調成10000000(10MB)
replica.fetch.max.bytes 默認1MB ,這里最少設置成一致 10MB
同時filebeat 也需要進行設置
output.kafka:
max_message_bytes: 10000000
重啟kafka和filebeat使配置生效,這樣就可以找到那條萬惡(為什么萬惡?因為會影響kafka 的性能)的大大大大日志。
