目錄
1、背景引入:很多同學看不懂Kafka參數
2、一段Kafka生產端的示例代碼
3、內存緩沖的大小
4、多少數據打包為一個Batch合適?
5、要是一個Batch遲遲無法湊滿咋辦?
6、最大請求大小
7、重試機制
1、背景引入:很多同學看不懂kafka參數
今天給大家聊一個很有意思的話題,大家知道很多公司都會基於Kafka作為MQ來開發一些復雜的大型系統。
而在使用Kafka的客戶端編寫代碼與服務器交互的時候,是需要對客戶端設置很多的參數的。
所以我就見過很多年輕的同學,可能剛剛加入團隊,對Kafka這個技術其實並不是很了解。
此時就會導致他們看團隊里的一些資深同事寫的一些代碼,會看不懂是怎么回事,不了解背后的含義,這里面尤其是一些Kafka參數的設置。
所以這篇文章,我們還是采用老規矩畫圖的形式,來聊聊Kafka生產端一些常見參數的設置,讓大家下次看到一些Kafka客戶端設置的參數時,不會再感到發怵。
2、一段Kafka生產端的示例代碼
Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("buffer.memory", 67108864); props.put("batch.size", 131072); props.put("linger.ms", 100); props.put("max.request.size", 10485760); props.put("acks", "1"); props.put("retries", 10); props.put("retry.backoff.ms", 500); KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);
3、內存緩沖的大小
首先我們看看“buffer.memory”這個參數是什么意思?
Kafka的客戶端發送數據到服務器,一般都是要經過緩沖的,也就是說,你通過KafkaProducer發送出去的消息都是先進入到客戶端本地的內存緩沖里,然后把很多消息收集成一個一個的Batch,再發送到Broker上去的。
所以這個“buffer.memory”的本質就是用來約束KafkaProducer能夠使用的內存緩沖的大小的,他的默認值是32MB。
那么既然了解了這個含義,大家想一下,在生產項目里,這個參數應該怎么來設置呢?
你可以先想一下,如果這個內存緩沖設置的過小的話,可能會導致一個什么問題?
首先要明確一點,那就是在內存緩沖里大量的消息會緩沖在里面,形成一個一個的Batch,每個Batch里包含多條消息。
然后KafkaProducer有一個Sender線程會把多個Batch打包成一個Request發送到Kafka服務器上去。
那么如果要是內存設置的太小,可能導致一個問題:消息快速的寫入內存緩沖里面,但是Sender線程來不及把Request發送到Kafka服務器。
這樣是不是會造成內存緩沖很快就被寫滿?一旦被寫滿,就會阻塞用戶線程,不讓繼續往Kafka寫消息了。
所以對於“buffer.memory”這個參數應該結合自己的實際情況來進行壓測,你需要測算一下在生產環境,你的用戶線程會以每秒多少消息的頻率來寫入內存緩沖。
比如說每秒300條消息,那么你就需要壓測一下,假設內存緩沖就32MB,每秒寫300條消息到內存緩沖,是否會經常把內存緩沖寫滿?經過這樣的壓測,你可以調試出來一個合理的內存大小。
4、多少數據打包為一個Batch合適?
接着你需要思考第二個問題,就是你的“batch.size”應該如何設置?這個東西是決定了你的每個Batch要存放多少數據就可以發送出去了。
比如說你要是給一個Batch設置成是16KB的大小,那么里面湊夠16KB的數據就可以發送了。
這個參數的默認值是16KB,一般可以嘗試把這個參數調節大一些,然后利用自己的生產環境發消息的負載來測試一下。
比如說發送消息的頻率就是每秒300條,那么如果比如“batch.size”調節到了32KB,或者64KB,是否可以提升發送消息的整體吞吐量。
因為理論上來說,提升batch的大小,可以允許更多的數據緩沖在里面,那么一次Request發送出去的數據量就更多了,這樣吞吐量可能會有所提升。
但是這個東西也不能無限的大,過於大了之后,要是數據老是緩沖在Batch里遲遲不發送出去,那么豈不是你發送消息的延遲就會很高。
比如說,一條消息進入了Batch,但是要等待5秒鍾Batch才湊滿了64KB,才能發送出去。那這條消息的延遲就是5秒鍾。
所以需要在這里按照生產環境的發消息的速率,調節不同的Batch大小自己測試一下最終出去的吞吐量以及消息的 延遲,設置一個最合理的參數。
5、要是一個Batch遲遲無法湊滿怎么辦?
要是一個Batch遲遲無法湊滿,此時就需要引入另外一個參數了,“linger.ms”
他的含義就是說一個Batch被創建之后,最多過多久,不管這個Batch有沒有寫滿,都必須發送出去了。
給大家舉個例子,比如說batch.size是16kb,但是現在某個低峰時間段,發送消息很慢。
這就導致可能Batch被創建之后,陸陸續續有消息進來,但是遲遲無法湊夠16KB,難道此時就一直等着嗎?
當然不是,假設你現在設置“linger.ms”是50ms,那么只要這個Batch從創建開始到現在已經過了50ms了,哪怕他還沒滿16KB,也要發送他出去了。
所以“linger.ms”決定了你的消息一旦寫入一個Batch,最多等待這么多時間,他一定會跟着Batch一起發送出去。
避免一個Batch遲遲湊不滿,導致消息一直積壓在內存里發送不出去的情況。這是一個很關鍵的參數。
這個參數一般要非常慎重的來設置,要配合batch.size一起來設置。
舉個例子,首先假設你的Batch是32KB,那么你得估算一下,正常情況下,一般多久會湊夠一個Batch,比如正常來說可能20ms就會湊夠一個Batch。
那么你的linger.ms就可以設置為25ms,也就是說,正常來說,大部分的Batch在20ms內都會湊滿,但是你的linger.ms可以保證,哪怕遇到低峰時期,20ms湊不滿一個Batch,還是會在25ms之后強制Batch發送出去。
如果要是你把linger.ms設置的太小了,比如說默認就是0ms,或者你設置個5ms,那可能導致你的Batch雖然設置了32KB,但是經常是還沒湊夠32KB的數據,5ms之后就直接強制Batch發送出去,這樣也不太好其實,會導致你的Batch形同虛設,一直湊不滿數據。
6、最大請求大小
“max.request.size”這個參數決定了每次發送給Kafka服務器請求的最大大小,同時也會限制你一條消息的最大大小也不能超過這個參數設置的值,這個其實可以根據你自己的消息的大小來靈活的調整。
給大家舉個例子,你們公司發送的消息都是那種大的報文消息,每條消息都是很多的數據,一條消息可能都要20KB。
此時你的batch.size是不是就需要調節大一些?比如設置個512KB?然后你的buffer.memory是不是要給的大一些?比如設置個128MB?
只有這樣,才能讓你在大消息的場景下,還能使用Batch打包多條消息的機制。但是此時“max.request.size”是不是也得同步增加?
因為可能你的一個請求是很大的,默認他是1MB,你是不是可以適當調大一些,比如調節到5MB?
7、重試機制
“retries”和“retries.backoff.ms”決定了重試機制,也就是如果一個請求失敗了可以重試幾次,每次重試的間隔是多少毫秒。
這個大家適當設置幾次重試的機會,給一定的重試間隔即可,比如給100ms的重試間隔。
轉載自: