原文:【Kafka】Kafka写入的数据不丢失原理

Kafka 的核心架构原理。 Kafka 分布式存储架构 那么现在问题来了,如果每天产生几十 TB 的数据,难道都写一台机器的磁盘上吗 这明显是不靠谱的啊 所以说,这里就得考虑数据的分布式存储了,我们结合 Kafka 的具体情况来说说。 在 Kafka 里面,有一个核心的概念叫做 Topic ,这个 Topic 你就姑且认为是一个数据集合吧。 举个例子,如果你现在有一份网站的用户行为数据要写入 K ...

2020-07-01 17:13 0 520 推荐指数:

查看详情

Kafka如何保证数据丢失

Kafka如何保证数据丢失 1.生产者数据的不丢失 kafka的ack机制:在kafka发送数据的时候,每次发送消息都会有一个确认反馈机制,确保消息正常的能够被收到,其中状态有0,1,-1。 如果是同步模式:ack机制能够保证数据的不丢失,如果ack设置为0,风险很大,一般不建议设置 ...

Fri Mar 16 04:03:00 CST 2018 0 3666
kafka 如何保证数据丢失

一般我们在用到这种消息中件的时候,肯定会考虑要怎样才能保证数据丢失,在面试中也会问到相关的问题。但凡遇到这种问题,是指3个方面的数据丢失,即:producer consumer 端数据丢失 broker端数据丢失下面我们分别从这三个方面来学习,kafka是如何保证数据丢失 ...

Sun Jan 17 04:14:00 CST 2021 0 474
kafka 如何保证数据丢失

一般我们在用到这种消息中件的时候,肯定会考虑要怎样才能保证数据丢失,在面试中也会问到相关的问题。但凡遇到这种问题,是指3个方面的数据丢失,即:producer consumer 端数据丢失 broker端数据丢失下面我们分别从这三个方面来学习,kafka是如何保证数据丢失 ...

Wed Sep 11 02:04:00 CST 2019 1 3934
Kafka生产者-向Kafka写入数据

(1)生产者概览 (1)不同的应用场景对消息有不同的需求,即是否允许消息丢失、重复、延迟以及吞吐量的要求。不同场景对Kafka生产者的API使用和配置会有直接的影响。 例子1:信用卡事务处理系统,不允许消息的重复和丢失,延迟最大500ms,对吞吐量要求较高。 例子2:保存网站的点击信息,允许 ...

Sun Apr 29 04:36:00 CST 2018 2 35845
Kafka 数据丢失问题总结

数据丢失是一件非常严重的事情事,针对数据丢失的问题我们需要有明确的思路来确定问题所在,解决思路如下: 是否真正的存在数据丢失问题,比如有很多时候可能是其他同事操作了测试环境,所以首先确保数据没有第三方干扰。 理清你的业务流程,数据流向,数据到底是在什么地方丢失数据,在kafka ...

Wed Mar 16 19:35:00 CST 2022 0 1368
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM