0.9.0
############################# Server Basics #############################
# 節點的ID,必須與其它節點不同
broker.id=0
############################# Socket Server Settings #############################
listeners=PLAINTEXT://:9092
# 監聽端口
#port=9092
# 節點需要綁定的主機名稱。如果沒有設置,服務器會綁定到所有接口
#host.name=localhost
# 節點的主機名會通知給生產者和消費者。如果沒有設置,它將會使用"host.name"的值(前提是設置了host.name)。
# 否則他會使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.host.name=<hostname routable by clients>
# 這個端口將暴露給Zookeeper以供客戶端來使用。如果沒有設置,將會暴露節點綁定的端口
#advertised.port=<port accessible by clients>
# 接受網絡請求的線程數
num.network.threads=3
# 進行磁盤IO的線程數
num.io.threads=8
# 套接字服務器使用的發送緩沖區大小
socket.send.buffer.bytes=102400
# 套接字服務器使用的接收緩沖區大小
socket.receive.buffer.bytes=102400
# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600
############################# Log Basics #############################
# 一個逗號分隔的目錄列表,用來存儲日志文件
log.dirs=/tmp/kafka-logs
# 每個主題的日志分區的默認數量。更多的分區允許更大的並行操作,但是它會導致節點產生更多的文件
num.partitions=1
# 每個數據目錄中的線程數,用於在啟動時日志恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1
############################# Log Flush Policy #############################
# 消息直接被寫入文件系統,但是默認情況下我們僅僅調用fsync()以延遲的同步系統緩存
# 這些有一些重要的權衡
# 1. 持久性:如果不使用復制,未刷新的數據可能會丟失。
# 2. 延遲:非常大的刷新間隔可能會在刷新時導致延遲,因為將會有大量數據刷新。
# 3. 吞吐量:刷新通常是最昂貴的操作,而一個小的刷新間隔可能會導致過多的搜索。
# 下面的設置允許你去配置刷新策略,每隔一段時間刷新或者一次N個消息(或者兩個都配置)。這可以在全局范圍內完成,並在每個主題的基礎上重寫。
# 在強制刷新數據到磁盤執勤啊允許接收消息的數量
#log.flush.interval.messages=10000
# 在強制刷新之前,消息可以在日志中停留的最長時間
#log.flush.interval.ms=1000
############################# Log Retention Policy #############################
# 以下的配置控制了日志段的處理。策略可以配置為每隔一段時間刪除片段或者到達一定大小之后。
# 當滿足這些條件時,將會刪除一個片段。刪除總是發生在日志的末尾。
# 一個日志的最小存活時間,可以被刪除
log.retention.hours=168
# 一個基於大小的日志保留策略。段將被從日志中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824
# 每一個日志段大小的最大值。當到達這個大小時,會生成一個新的片段。
log.segment.bytes=1073741824
# 檢查日志段的時間間隔,看是否可以根據保留策略刪除它們
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
# Zookeeper連接字符串
# 這是一個以逗號為分割的部分,每一個都匹配一個Zookeeper
# 您還可以將一個可選的chroot字符串附加到url,以指定所有kafka znode的根目錄。
zookeeper.connect=localhost:2181
# 連接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000
0.10.1
############################# Server Basics #############################
# 節點的ID,必須與其它節點不同
broker.id=0
# 選擇啟用刪除主題功能,默認false
#delete.topic.enable=true
############################# Socket Server Settings #############################
# 套接字服務器堅挺的地址。如果沒有配置,就使用java.net.InetAddress.getCanonicalHostName()的返回值
# FORMAT:格式:
# listeners = security_protocol://host_name:port
# EXAMPLE:例子:
# listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092
# 節點的主機名會通知給生產者和消費者。如果沒有設置,如果配置了"listeners"就使用"listeners"的值。
# 否則就使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.listeners=PLAINTEXT://your.host.name:9092
# 接受網絡請求的線程數
num.network.threads=3
# 進行磁盤IO的線程數
num.io.threads=8
# 套接字服務器使用的發送緩沖區大小
socket.send.buffer.bytes=102400
# 套接字服務器使用的接收緩沖區大小
socket.receive.buffer.bytes=102400
# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600
############################# Log Basics #############################
# 一個逗號分隔的目錄列表,用來存儲日志文件
log.dirs=/tmp/kafka-logs
# 每個主題的日志分區的默認數量。更多的分區允許更大的並行操作,但是它會導致節點產生更多的文件
num.partitions=1
# 每個數據目錄中的線程數,用於在啟動時日志恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1
############################# Log Flush Policy #############################
# 消息直接被寫入文件系統,但是默認情況下我們僅僅調用fsync()以延遲的同步系統緩存
# 這些有一些重要的權衡
# 1. 持久性:如果不使用復制,未刷新的數據可能會丟失。
# 2. 延遲:非常大的刷新間隔可能會在刷新時導致延遲,因為將會有大量數據刷新。
# 3. 吞吐量:刷新通常是最昂貴的操作,而一個小的刷新間隔可能會導致過多的搜索。
# 下面的設置允許你去配置刷新策略,每隔一段時間刷新或者一次N個消息(或者兩個都配置)。這可以在全局范圍內完成,並在每個主題的基礎上重寫。
# 在強制刷新數據到磁盤之前允許接收消息的數量
#log.flush.interval.messages=10000
# 在強制刷新之前,消息可以在日志中停留的最長時間
#log.flush.interval.ms=1000
############################# Log Retention Policy #############################
# 以下的配置控制了日志段的處理。策略可以配置為每隔一段時間刪除片段或者到達一定大小之后。
# 當滿足這些條件時,將會刪除一個片段。刪除總是發生在日志的末尾。
# 一個日志的最小存活時間,可以被刪除
log.retention.hours=168
# 一個基於大小的日志保留策略。段將被從日志中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824
# 每一個日志段大小的最大值。當到達這個大小時,會生成一個新的片段。
log.segment.bytes=1073741824
# 檢查日志段的時間間隔,看是否可以根據保留策略刪除它們
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
# Zookeeper連接字符串
zookeeper.connect=localhost:2181
# 連接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000
0.11.0
############################# Server Basics #############################
# 節點的ID,必須與其它節點不同
broker.id=0
# 選擇啟用刪除主題功能,默認false
#delete.topic.enable=true
############################# Socket Server Settings #############################
# 套接字服務器堅挺的地址。如果沒有配置,就使用java.net.InetAddress.getCanonicalHostName()的返回值
# FORMAT:
# listeners = listener_name://host_name:port
# EXAMPLE:
# listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092
# 節點的主機名會通知給生產者和消費者。如果沒有設置,如果配置了"listeners"就使用"listeners"的值。
# 否則就使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.listeners=PLAINTEXT://your.host.name:9092
# 將偵聽器的名稱映射到安全協議,默認情況下它們是相同的。有關詳細信息,請參閱配置文檔
#listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
# 服務器用來接受請求或者發送響應的線程數
num.network.threads=3
# 服務器用來處理請求的線程數,可能包括磁盤IO
num.io.threads=8
# 套接字服務器使用的發送緩沖區大小
socket.send.buffer.bytes=102400
# 套接字服務器使用的接收緩沖區大小
socket.receive.buffer.bytes=102400
# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600
############################# Log Basics #############################
# 一個逗號分隔的目錄列表,用來存儲日志文件
log.dirs=/tmp/kafka-logs
# 每個主題的日志分區的默認數量。更多的分區允許更大的並行操作,但是它會導致節點產生更多的文件
num.partitions=1
# 每個數據目錄中的線程數,用於在啟動時日志恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1
############################# Internal Topic Settings #############################
# 內部主題設置
# 對於除了開發測試之外的其他任何東西,group元數據內部主題的復制因子“__consumer_offsets”和“__transaction_state”,建議值大於1,以確保可用性(如3)。
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
############################# Log Flush Policy #############################
# 在強制刷新數據到磁盤之前允許接收消息的數量
#log.flush.interval.messages=10000
# 在強制刷新之前,消息可以在日志中停留的最長時間
#log.flush.interval.ms=1000
############################# Log Retention Policy #############################
# 以下的配置控制了日志段的處理。策略可以配置為每隔一段時間刪除片段或者到達一定大小之后。
# 當滿足這些條件時,將會刪除一個片段。刪除總是發生在日志的末尾。
# 一個日志的最小存活時間,可以被刪除
log.retention.hours=168
# 一個基於大小的日志保留策略。段將被從日志中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824
# 每一個日志段大小的最大值。當到達這個大小時,會生成一個新的片段。
log.segment.bytes=1073741824
# 檢查日志段的時間間隔,看是否可以根據保留策略刪除它們
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
zookeeper.connect=localhost:2181
# 連接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000
############################# Group Coordinator Settings #############################
group.initial.rebalance.delay.ms=0
總結
#port=9092
#host.name=localhost
#advertised.host.name=<hostname routable by clients>
#advertised.port=<port accessible by clients>
被改為
#listeners=PLAINTEXT://:9092 #advertised.listeners=PLAINTEXT://your.host.name:9092