kafka安裝以及配置詳解


非docker安裝:

kafka官方下載地址:http://kafka.apache.org/downloads

選擇版本:

 

 學習使用的話推薦最新版本,如果生產使用推薦2.2以上版本。低版本有兼容性問題,防止踩坑

1.解壓壓縮包

tar -zxvf kafka_2.11-2.2.0.tgz

2.service.propertise 配置文件

############################# Server Basics #############################

# 節點的ID,必須與其它節點不同
broker.id=0

# 選擇啟用刪除主題功能,默認false
#delete.topic.enable=true

############################# Socket Server Settings #############################

# 套接字服務器堅挺的地址。如果沒有配置,就使用java.net.InetAddress.getCanonicalHostName()的返回值
# FORMAT:
# listeners = listener_name://host_name:port
# EXAMPLE:
# listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092

# 節點的主機名會通知給生產者和消費者。如果沒有設置,如果配置了"listeners"就使用"listeners"的值。
# 否則就使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.listeners=PLAINTEXT://your.host.name:9092

# 將偵聽器的名稱映射到安全協議,默認情況下它們是相同的。有關詳細信息,請參閱配置文檔
#listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

# 服務器用來接受請求或者發送響應的線程數
num.network.threads=3

# 服務器用來處理請求的線程數,可能包括磁盤IO
num.io.threads=8

# 套接字服務器使用的發送緩沖區大小
socket.send.buffer.bytes=102400

# 套接字服務器使用的接收緩沖區大小
socket.receive.buffer.bytes=102400

# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600


############################# Log Basics #############################

# 一個逗號分隔的目錄列表,用來存儲日志文件
log.dirs=/tmp/kafka-logs

# 每個主題的日志分區的默認數量。更多的分區允許更大的並行操作,但是它會導致節點產生更多的文件
num.partitions=1

# 每個數據目錄中的線程數,用於在啟動時日志恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1

############################# Internal Topic Settings #############################
# 內部主題設置
# 對於除了開發測試之外的其他任何東西,group元數據內部主題的復制因子“__consumer_offsets”和“__transaction_state”,建議值大於1,以確保可用性(如3)。
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1

############################# Log Flush Policy #############################

 

# 在強制刷新數據到磁盤之前允許接收消息的數量
#log.flush.interval.messages=10000

# 在強制刷新之前,消息可以在日志中停留的最長時間
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################

# 以下的配置控制了日志段的處理。策略可以配置為每隔一段時間刪除片段或者到達一定大小之后。
# 當滿足這些條件時,將會刪除一個片段。刪除總是發生在日志的末尾。

# 一個日志的最小存活時間,可以被刪除
log.retention.hours=168

# 一個基於大小的日志保留策略。段將被從日志中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824

# 每一個日志段大小的最大值。當到達這個大小時,會生成一個新的片段。
log.segment.bytes=1073741824

# 檢查日志段的時間間隔,看是否可以根據保留策略刪除它們
log.retention.check.interval.ms=300000

############################# Zookeeper #############################

zookeeper.connect=localhost:2181

# 連接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000


############################# Group Coordinator Settings #############################

group.initial.rebalance.delay.ms=0

 

3.啟動kafka服務

./bin/kafka-server-start.sh config/server.properties & 【后台啟動】

4.啟動生產者服務

./kafka-console-producer.sh --broker-list localhost:9003 --topic fly-test

5.啟動消費者服務

./kafka-console-consumer.sh --bootstrap-server localhost:9003 --topic fly-test --from-beginning

這時候,生產者發送消息,消費者可以實時監聽到數據消息了哈

 

 

 

 6.查看topic信息

./bin/kafka-topics.sh --zookeeper localhost:13181 --list

可以查看當前zk節點下所有的topic數據信息

7.查看某個topic詳細信息

./bin/kafka-topics.sh --zookeeper localhost:13181 --describe --topic fly-test

 

 

 

---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Docker 安裝kafka

1:kafka需要zookeeper管理,所以需要先安裝zookeeper。 下載docker pull wurstmeister/zookeeper:latest版本

docker pull wurstmeister/zookeeper

 
 

2:啟動鏡像生成容器

docker run -d --name zookeeper -p 2181:2181 -v /etc/localtime:/etc/localtime wurstmeister/zookeeper

 
 

3:下載kafka鏡像

docker pull wurstmeister/kafka

 
 

4:啟動kafka鏡像生成容器

docker run -d --name kafka -p 9092:9092 -e KAFKA_BROKER_ID=0 -e KAFKA_ZOOKEEPER_CONNECT=192.168.155.56:2181/kafka -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.155.56:9092 -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 -v /etc/localtime:/etc/localtime wurstmeister/kafka

-e KAFKA_BROKER_ID=0  在kafka集群中,每個kafka都有一個BROKER_ID來區分自己

-e KAFKA_ZOOKEEPER_CONNECT=192.168.155.56:2181/kafka 配置zookeeper管理kafka的路徑192.168.155.56:2181/kafka

-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.155.56:9092  把kafka的地址端口注冊給zookeeper

-e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 配置kafka的監聽端口

-v /etc/localtime:/etc/localtime 容器時間同步虛擬機的時間

 
 

5:驗證kafka是否可以使用

進入容器

docker exec -it kafka /bin/sh

進入路徑:/opt/kafka_2.11-2.0.0/bin下

運行kafka生產者發送消息

./kafka-console-producer.sh --broker-list localhost:9092 --topic sun

發送消息

{"datas":[{"channel":"","metric":"temperature","producer":"ijinus","sn":"IJA0101-00002245","time":"1543207156000","value":"80"}],"ver":"1.0"}

 

運行kafka消費者接收消息

kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic sun --from-beginning

 


 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM