首页 > 其他 > 详细

filebeat 采集文件报错:dropping too large message of size

时间:2020-01-02 19:18:36      阅读:623      评论:0      收藏:0      [点我收藏+]

背景公司使用的ELK进行日志采集、聚合

业务机器采用filebeat 进行的日志采集。

会有概率出现 ropping too large message of size 1171026 

具体原因就是kafka  对每一条消息的大小进行了限制。

默认是1000000 字节,我们从错误中可以看出,当前字节大于这个值,需要做进一步的调整

首先从kafka 配置侧

设置

message.max.bytes 默认 1000000,这里可以调成10000000(10MB)

replica.fetch.max.bytes 默认1MB ,这里最少设置成一致 10MB

同时filebeat 也需要进行设置

output.kafka:

     max_message_bytes: 10000000

 

响应的重启kafka和filebeat使配置生效,这样就可以找到那条万恶(为什么万恶?因为会影响kafka 的性能)的大大大大日志。

filebeat 采集文件报错:dropping too large message of size

原文:https://www.cnblogs.com/zhaosc-haha/p/12133699.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!