原文:kafka消息-----定時清理

項目中最近使用kafka需要定時清理消息,我們知道kafka有周期性清理消息機制,但是項目中往往因為數據量較大,需要手動控制分區已消費消息的清理。 此處使用的是反編譯程序,具體幾個方法已標出, 個人清理想法:大致流程就是根據topic獲取所有的分區,然后根據遍歷每個分區的偏移量,然后存入map,存入時先判斷偏移量大小,保留最小該分區消費者最小偏移量的值,然后刪除該偏移量以前的數據, 下面的反碼程序 ...

2020-04-03 17:20 0 1939 推薦指數:

查看詳情

kafka數據清理

Kafka將數據持久化到了硬盤上,允許你配置一定的策略對數據清理清理的策略有兩個,刪除和壓縮。 數據清理的方式 刪除 log.cleanup.policy=delete啟用刪除策略直接刪除,刪除后的消息不可恢復。可配置以下兩個策略:清理超過指定時清理 ...

Mon Sep 02 22:31:00 CST 2019 0 1376
Kafka日志清理

前言 Kafka消息存儲在磁盤中,為了控制磁盤占用空間。kafka中每個分區副本都對應一個Log,而Log對應多個日志分段,這樣有利日志清理操作。Kafka提供兩種日志清理策略: 日志刪除(Log retention):按一定的保留的策略直接刪除不符條件的日志分段; 日志壓縮 ...

Mon Nov 23 23:54:00 CST 2020 0 513
kafka清理數據日志

背景問題: 使用kafka的路上踩過不少坑,其中一個就是在測試環境使用kafka一陣子以后,發現其日志目錄變的很大,占了磁盤很大空間,定位到指定目錄下發現其中一個系統自動創建的 topic,__consumer_offsets-45(kafka一共創建了50個分別從0~49標識)文件夾很大,上網 ...

Wed Jul 11 23:04:00 CST 2018 0 4251
定時清理elasticsearch

索引這種格式 以下腳本加入crontab #每天清理es數據 0 1 * * * /data/sh/rm_esindex.sh >> /data/logs/crontab/rm_esindex.log    #!/bin/sh ip ...

Fri Jan 19 00:47:00 CST 2018 0 1836
crontab定時清理日志

1.創建shell腳本 vi test_cron.sh #!/bin/bash#echo "====`date`====" >> /game/webapp/test_cron.logf ...

Tue Jun 25 00:41:00 CST 2019 0 670
Linux日志定時清理

linux是一個很能自動產生文件的系統,日志、郵件、備份等。雖然現在硬盤廉價,我們可以有很多硬盤空間供這些文件浪費,讓系統定時清理一些不需要的文件很有一種爽快的事情。不用你去每天惦記着是否需要清理日志,不用每天收到硬盤空間不足的報警短信,想好好休息的話,讓我們把這個事情交給機器定時去執行 ...

Thu Jul 28 02:33:00 CST 2016 3 11623
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM