原文:如何用Flink把數據sink到kafka多個不同(成百上千)topic中

需求與場景 上游某業務數據量特別大,進入到kafka一個topic中 當然了這個topic的partition數必然多,有人肯定疑問為什么非要把如此龐大的數據寫入到 個topic里,歷史留下的問題,現狀就是如此龐大的數據集中在一個topic里 。這就需要根據一些業務規則把這個大數據量的topic數據分發到多個 成百上千 topic中,以便下游的多個job去消費自己topic的數據,這樣上下游之間的 ...

2020-02-15 19:13 0 1685 推薦指數:

查看詳情

FlinkKafka 0.8讀取多個Topic時的問題

Flink提供了FlinkKafkaConsumer08,使用Kafka的High-level接口,從Kafka讀取指定Topic數據,如果要從多個Topic讀取數據,可以如下操作: 1.application.conf配置 如果使用了配置管理庫 ...

Wed Sep 06 00:57:00 CST 2017 0 4244
Flink Kafka作為Source和Sink

實現kafka進,kafka出的流程。 代碼: object KafkaTest { def main(args: Array[String]): Unit = { val env ...

Tue Apr 21 07:32:00 CST 2020 0 1268
Flinksink實戰之二:kafka

實戰之一:初探》對sink有了基本的了解,本章來體驗將數據sinkkafka的操作; 全系列鏈接 ...

Mon Nov 09 16:11:00 CST 2020 0 920
Flink輸出操作之Kafka Sink

Flink沒有spark輸出操作那么直接,spark可以進行迭代輸出操作,而Flink對外的輸出操作都是用sink進行完成,下面是kafka sink輸出操作的demo 1、添加pom依賴 2、demo的核心部分編碼 ...

Wed Jan 06 02:27:00 CST 2021 1 464
FlinkSink(文件、Kafka、Redis、Es、Mysql)

提醒: 數據格式 ##########保存至文件############## 1、處理主類 ##########保存至Es############## 1、依賴 2、處理主類 ##########保存 ...

Thu Jan 07 07:08:00 CST 2021 0 457
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM