原文:关于kafka定期清理日志后再消费报错kafka.common.OffsetOutOfRangeException的解决

环境: kafka . spark . . zookeeper . . cdh . . 公司阿里云测试机,十月一放假前,没有在继续消费,假期过后回来再使用spark streaming消费某个消费组下的kafka时报错如下: 出现问题的原因: kafka会定时清理日志 当我们的任务开始的时候,如果之前消费过某个topic,那么这个topic会在zk上设置offset,我们一般会去获取这个offs ...

2019-10-11 15:48 0 817 推荐指数:

查看详情

Kafka kafka.common.OffsetOutOfRangeException 问题处理

最近公司的zk的down掉了, storm job 重启的时候报出 kafka.common.OffsetOutOfRangeException 异常 网上查询了一些朋友的做法, 自己也看了一下代码, 最终还是解决了 原因: zk挂掉的这几天, kafka中之前的数据已经被清掉 ...

Tue Oct 21 19:55:00 CST 2014 0 8459
Kafka日志清理

前言 Kafka将消息存储在磁盘中,为了控制磁盘占用空间。kafka中每个分区副本都对应一个Log,而Log对应多个日志分段,这样有利日志清理操作。Kafka提供两种日志清理策略: 日志删除(Log retention):按一定的保留的策略直接删除不符条件的日志分段; 日志压缩 ...

Mon Nov 23 23:54:00 CST 2020 0 513
kafka清理数据日志

背景问题: 使用kafka的路上踩过不少坑,其中一个就是在测试环境使用kafka一阵子以后,发现其日志目录变的很大,占了磁盘很大空间,定位到指定目录下发现其中一个系统自动创建的 topic,__consumer_offsets-45(kafka一共创建了50个分别从0~49标识)文件夹很大,上网 ...

Wed Jul 11 23:04:00 CST 2018 0 4251
【转】Kafka某topic无法消费解决方案&Kafka某Topic数据清理

由于项目原因,最近经常碰到Kafka消息队列某topic在集群宕机重启无法消费的情况。碰到这种情况,有三步去判断原因所在: step A:如果用kafka串口(即console-consumer)是可以正常消费该topic,则排除kafka集群出现故障 step B:若平台业务能正常消费 ...

Wed Nov 01 19:31:00 CST 2017 0 1659
Kafka日志及Topic数据清理

由于项目原因,最近经常碰到Kafka消息队列拥堵的情况。碰到这种情况为了不影响在线系统的正常使用,需要大家手动的清理Kafka Log。但是清理Kafka Log又不能单纯的去删除中间环节产生的日志,中间关联的很多东西需要手动同时去清理,否则可能会导致删除客户端无法消费的情况。 在介绍 ...

Wed Dec 21 06:22:00 CST 2016 1 73483
Kafka日志及Topic数据清理

由于项目原因,最近经常碰到Kafka消息队列拥堵的情况。碰到这种情况为了不影响在线系统的正常使用,需要大家手动的清理Kafka Log。但是清理Kafka Log又不能单纯的去删除中间环节产生的日志,中间关联的很多东西需要手动同时去清理,否则可能会导致删除客户端无法消费的情况。 在介绍手动 ...

Wed Dec 26 01:13:00 CST 2018 0 1468
Kafka消费者组均衡问题

Kafka中,当有新消费者加入或者订阅的topic数发生变化时,会触发Rebalance(均衡:在同一个消费者组当中,分区的所有权从一个消费者转移到另外一个消费者)机制,Rebalance顾名思义就是重新均衡消费消费。Rebalance的过程如下: 第一步:所有成员都向 ...

Sun Dec 16 21:11:00 CST 2018 0 3170
kafka消费者启动报错

报错信息:  WARN Fetching topic metadata with correlation id 14 for topics [Set(test)] from broker [BrokerEndPoint(2,ubuntu,9092)] failed ...

Sat Jan 19 00:19:00 CST 2019 0 1096
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM