原文:kafka消息-----定时清理

项目中最近使用kafka需要定时清理消息,我们知道kafka有周期性清理消息机制,但是项目中往往因为数据量较大,需要手动控制分区已消费消息的清理。 此处使用的是反编译程序,具体几个方法已标出, 个人清理想法:大致流程就是根据topic获取所有的分区,然后根据遍历每个分区的偏移量,然后存入map,存入时先判断偏移量大小,保留最小该分区消费者最小偏移量的值,然后删除该偏移量以前的数据, 下面的反码程序 ...

2020-04-03 17:20 0 1939 推荐指数:

查看详情

kafka数据清理

Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理清理的策略有两个,删除和压缩。 数据清理的方式 删除 log.cleanup.policy=delete启用删除策略直接删除,删除后的消息不可恢复。可配置以下两个策略:清理超过指定时清理 ...

Mon Sep 02 22:31:00 CST 2019 0 1376
Kafka日志清理

前言 Kafka消息存储在磁盘中,为了控制磁盘占用空间。kafka中每个分区副本都对应一个Log,而Log对应多个日志分段,这样有利日志清理操作。Kafka提供两种日志清理策略: 日志删除(Log retention):按一定的保留的策略直接删除不符条件的日志分段; 日志压缩 ...

Mon Nov 23 23:54:00 CST 2020 0 513
kafka清理数据日志

背景问题: 使用kafka的路上踩过不少坑,其中一个就是在测试环境使用kafka一阵子以后,发现其日志目录变的很大,占了磁盘很大空间,定位到指定目录下发现其中一个系统自动创建的 topic,__consumer_offsets-45(kafka一共创建了50个分别从0~49标识)文件夹很大,上网 ...

Wed Jul 11 23:04:00 CST 2018 0 4251
定时清理elasticsearch

索引这种格式 以下脚本加入crontab #每天清理es数据 0 1 * * * /data/sh/rm_esindex.sh >> /data/logs/crontab/rm_esindex.log    #!/bin/sh ip ...

Fri Jan 19 00:47:00 CST 2018 0 1836
crontab定时清理日志

1.创建shell脚本 vi test_cron.sh #!/bin/bash#echo "====`date`====" >> /game/webapp/test_cron.logf ...

Tue Jun 25 00:41:00 CST 2019 0 670
Linux日志定时清理

linux是一个很能自动产生文件的系统,日志、邮件、备份等。虽然现在硬盘廉价,我们可以有很多硬盘空间供这些文件浪费,让系统定时清理一些不需要的文件很有一种爽快的事情。不用你去每天惦记着是否需要清理日志,不用每天收到硬盘空间不足的报警短信,想好好休息的话,让我们把这个事情交给机器定时去执行 ...

Thu Jul 28 02:33:00 CST 2016 3 11623
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM