KAFKA集群安装和配置


1.下载并解压至指定目录

下载地址:http://kafka.apache.org/downloads

tar -zxvf kafka_2.11-0.10.1.0.tgz kafka_2.11-0.10.1.0 //解压
mv kafka_2.11-0.10.1.0 /opt/soft/kafka  //移动至指定目录

2.添加至环境变量

    vim /etc/profile //打开环境变量
    
    添加如下代码:
        export KAFKA_HOME=/opt/soft/kafka
        export PATH=$PATH:$KAFKA_HOME/bin    

        保存并退出
    
        source /etc/profile //使立即生效

3.配置KAFKA设置

    cd /opt/soft/kafka/config    //进入配置目录
    
    vim server.properties        //打开系统设置


        添加或者修改如下内容

    
(1)、配置 broker 的ID
    broker.id=1 //第一个kafka配置为 1,第二个配置为2,以此类推2)、打开监听端口
    listeners=PLAINTEXT://192.168.100.200:9092 //尽量写ip地址,以免造成错误3)、修改 log 的目录、在指定的位置创建好文件夹logs
    log.dirs=/usr/local/kafka/logs
(4)、修改 zookeeper.connect
    //尽量写ip地址,以免造成错误
    zookeeper.connect=master:2181,slave1:2181,slave2:2181,slave3:2181//如果是zookeeper集群,填写leader节点的ip,2181是zookeeper对外提供服务的端口5)、网络线程数量
    num.network.threads=36)Zookeeper每6秒监视kafka是否还活着
    zookeeper.connection.timeout.ms=6000(默认)           

4.分发到各个节点

//将环境变量和kafka分发到各个节点
scp -r /opt/soft/kafka hdo02:/opt/soft
scp -r /opt/soft/kafka hdo02:/opt/soft
scp /etc/profile hdo02:/etc
scp /etc/profile hdo02:/etc

//修改各个节点的server.properties1)、配置 broker 的ID
broker.id=1 //第一个kafka配置为 1,第二个配置为2,以此类推2)、打开监听端口
listeners=PLAINTEXT://192.168.195.132:9092 //尽量写ip地址,以免造成错误


//使各节点的环境变量立即生效
source /etc/profile 

5.启动kafka之前先启动zookeeper

//zookeeper启动
zkServer.sh start

//kafka启动
./bin/kafka-server-start.sh $KAFKA_HOME/config/server.properties &  打印日志启动
./bin/kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties & 不打印日志启动

都需要各节点分别启动

6.使用jps查看是否启动成功

7.测试

通过创建一个topic(名字为test)来测试是否能成功运行,随便选择一个节点运行
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic ranyi

列出kafka:kafka-topics.sh --list -zookeeper 192.168.195.132:2181。有刚刚的测试topic名,表示创建成功。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM