1、初始化環境搭建
安裝jdk,安裝zookeeper並保證zk服務正常啟動
2、下載安裝包並且上傳解壓
通過以下地址進行下載安裝包
hadoop01執行以下命令,下載並解壓
cd /export/softwares
wget http://archive.apache.org/dist/kafka/1.0.0/kafka_2.11-1.0.0.tgz
tar –zxvf kafka_2.11-1.0.0.tgz -C /export/servers/
3、hadoop01服務器修改kafka配置文件
hadoop01執行以下命令進入到kafka的配置文件目錄,修改配置文件
hadoop01執行以下命令創建數據文件存放目錄
mkdir -p /export/servers/kafka_2.11-1.0.0/logs
cd /export/servers/kafka_2.11-1.0.0/config
vim server.properties
broker.id=0
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/export/servers/kafka_2.11-1.0.0/logs
num.partitions=2
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=hadoop01:2181,hadoop02:2181,hadoop03:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
delete.topic.enable=true
host.name=hadoop01
4、安裝包分發到其他服務器上面去
hadoop01執行以下命令,將node01服務器的kafka安裝包發送到hadoop02和hadoop03服務器上面去
cd /export/servers/
scp -r kafka_2.11-1.0.0/ hadoop02:$PWD
scp -r kafka_2.11-1.0.0/ hadoop03:$PWD
5、hadoop02與hadoop03服務器修改配置文件
hadoop02與hadoop03服務器修改kafka配置文件
hadoop02使用以下命令修改kafka配置文件
cd /export/servers/kafka_2.11-1.0.0/config
vim server.properties
broker.id=1
host.name=hadoop02
hadoop03使用以下命令修改kafka配置文件
cd /export/servers/kafka_2.11-1.0.0/config
vim server.properties
broker.id=2
host.name=hadoop03
6、kafka集群啟動與停止
注意事項:在kafka啟動前,一定要讓zookeeper啟動起來。
三台機子都要啟動
cd /export/servers/kafka_2.11-1.0.0
nohup bin/kafka-server-start.sh config/server.properties 2>&1 &
停止服務
cd /export/servers/kafka_2.11-1.0.0
bin/kafka-server-stop.sh