原文:如何用Flink把数据sink到kafka多个不同(成百上千)topic中

需求与场景 上游某业务数据量特别大,进入到kafka一个topic中 当然了这个topic的partition数必然多,有人肯定疑问为什么非要把如此庞大的数据写入到 个topic里,历史留下的问题,现状就是如此庞大的数据集中在一个topic里 。这就需要根据一些业务规则把这个大数据量的topic数据分发到多个 成百上千 topic中,以便下游的多个job去消费自己topic的数据,这样上下游之间的 ...

2020-02-15 19:13 0 1685 推荐指数:

查看详情

FlinkKafka 0.8读取多个Topic时的问题

Flink提供了FlinkKafkaConsumer08,使用Kafka的High-level接口,从Kafka读取指定Topic数据,如果要从多个Topic读取数据,可以如下操作: 1.application.conf配置 如果使用了配置管理库 ...

Wed Sep 06 00:57:00 CST 2017 0 4244
Flink Kafka作为Source和Sink

实现kafka进,kafka出的流程。 代码: object KafkaTest { def main(args: Array[String]): Unit = { val env ...

Tue Apr 21 07:32:00 CST 2020 0 1268
Flinksink实战之二:kafka

实战之一:初探》对sink有了基本的了解,本章来体验将数据sinkkafka的操作; 全系列链接 ...

Mon Nov 09 16:11:00 CST 2020 0 920
Flink输出操作之Kafka Sink

Flink没有spark输出操作那么直接,spark可以进行迭代输出操作,而Flink对外的输出操作都是用sink进行完成,下面是kafka sink输出操作的demo 1、添加pom依赖 2、demo的核心部分编码 ...

Wed Jan 06 02:27:00 CST 2021 1 464
FlinkSink(文件、Kafka、Redis、Es、Mysql)

提醒: 数据格式 ##########保存至文件############## 1、处理主类 ##########保存至Es############## 1、依赖 2、处理主类 ##########保存 ...

Thu Jan 07 07:08:00 CST 2021 0 457
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM