原文:kafka中處理超大消息的一些考慮

Kafka設計的初衷是迅速處理短小的消息,一般 K大小的消息吞吐性能最好 可參見LinkedIn的kafka性能測試 。但有時候,我們需要處理更大的消息,比如XML文檔或JSON內容,一個消息差不多有 M,這種情況下,Kakfa應該如何處理 針對這個問題,有以下幾個建議: 最好的方法是不直接傳送這些大的數據。如果有共享存儲,如NAS, HDFS, S 等,可以把這些大的文件存放到共享存儲,然后使 ...

2015-02-01 00:10 0 14325 推薦指數:

查看詳情

kafka處理超大消息一些考慮

Kafka設計的初衷是迅速處理短小的消息,一般10K大小的消息吞吐性能最好(可參見LinkedIn的kafka性能測試)。但有時候,我們需要處理更大的消息,比如XML文檔或JSON內容,一個消息差不多有10-100M,這種情況下,Kakfa應該如何處理?針對這個問題,有以下幾個建議 ...

Fri Jul 01 05:27:00 CST 2016 1 9068
kafka處理超大消息一些考慮

案例分析 處理kafka consumer的程序的時候,發現如下錯誤: ERROR [2016-07-22 07:16:02,466] com.flow.kafka.consumer.main.KafkaConsumer: Unexpected Error ...

Fri Jun 28 22:54:00 CST 2019 0 1174
kafka處理超大消息一些處理

Kafka設計的初衷是迅速處理短小的消息,一般10K大小的消息吞吐性能最好(可參見LinkedIn的kafka性能測試)。但有時候,我們需要處理更大的消息,比如XML文檔或JSON內容,一個消息差不多有10-100M,這種情況下,Kakfa應該如何處理? 針對這個問題,有以下幾個建議 ...

Thu Mar 16 06:56:00 CST 2017 1 4161
kafka發送超大消息設置

  最近開發一cdc框架,為了測試極端情況,需要kafka傳遞100萬條數據過去,1個G左右,由於其他環節限制,不便進行拆包(注:測下來,大包走kafka不一定性能更好,甚至可能更低)。   測試百萬以上的變更數據時,報消息超過kafka broker允許的最大值,因此需要修改如下參數,保證包 ...

Sun Aug 18 00:31:00 CST 2019 0 1893
flink+kafka消息堆積的一些思路

目錄 問題描述 排查技術方向 服務器CPU高 內存占用高 具體技術排查 問題描述 flink+kafka,某些時候會有消息規程,量不大,但緩慢上升。 初步排查: kafka集群正常,消息接入,節點,內存,CPU ...

Sun Sep 26 21:42:00 CST 2021 0 185
編寫Shader時的一些性能考慮

編寫shader時的一些建議:1、只計算需要計算的東西;2、通常,需要渲染的像素比頂點數多,而頂點數又比物體數多很多。所以如果可以,盡量將運算從PS移到VS,或直接通過script來設置某些固定值;3、在使用Surface Shader時,可以通過一些指令讓shader優化很多。  通常情況下 ...

Mon Aug 10 08:29:00 CST 2015 0 8698
緩存使用需要考慮一些細節

一、數據庫與緩存一致性 使用緩存,可以降低耗時,提供系統吞吐性能。但是,使用緩存,會存在數據一致性的問題。 1、幾種緩存使用模式 Cache-Aside Pattern,旁路緩存模式 ...

Wed Oct 27 05:51:00 CST 2021 0 138
kafka一些認識

kafka不同於activemq和rabbitmq等這種符合AMQP協議的標准消息隊列產品,它有一些list或 ...

Sat Sep 13 21:11:00 CST 2014 1 2010
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM