1.啟動Kafka,其中">>/dev/null"表示將日志信息輸出到"黑洞",其中"2>&1"表示將錯誤信息和前面的日志信息一樣,也輸出到"黑洞",末尾的"&"表示以后台方式啟動kafka:
bin/kafka-server-start.sh config/server.properties >>/dev/null 2>&1 &
2.啟動生產者,往"accesslog"這個Topic中發送消息:
bin/kafka-console-producer.sh --topic accesslog --broker-list localhost:9092
3.啟動消費者,從"accesslog"這個Topic中消費消息,其中"--from-beginning"為可選參數,表示要從頭消費消息:
bin/kafka-console-consumer.sh --topic accesslog --from-beginning --zookeeper localhost:2181
4.創建一個名為"mytopic"的Topic:
bin/kafka-topics.sh --create --topic mytopic --replication-factor 2 --partitions 3 --zookeeper localhost:2181
5.查看"mytopic"這個Topic的詳細信息:
bin/kafka-topics.sh --describe --topic mytopic --zookeeper localhost:2181
6.查看所有的Topic列表:
bin/kafka-topics.sh --list --zookeeper localhost:2181
7.kafka集群批量啟動腳本:
說明:通過"start-kafka.sh"腳本,讀取"kafka/bin"目錄下"slave"文件中配置的主機列表,並通過一個while循環,用ssh分別啟動各個主機上的kafka服務器。
[root@hadoop01 bin]# cat start-kafka.sh cat /root/apps/kafka/bin/slave | while read line do { echo $line ssh $line "source /etc/profile;nohup kafka-server-start.sh /root/apps/kafka/config/server.properties >/dev/null 2>&1 &" }& wait done [root@hadoop01 bin]# cat slave hadoop01 hadoop02 hadoop03 [root@hadoop01 bin]#