logstash 使用kafka范例


写入到kafka

input {
    stdin { }

}

output {
    kafka {
        bootstrap_servers => "10.0.0.200:9092"
        topic_id => "test"
    }


}

##从kafka中将数据读出,写入到 elasticsearch中

input {
    kafka {
         bootstrap_servers => ["10.0.0.200:9092"] ##kafka地址,可以是集群
         client_id => "test"    
         auto_offset_reset => "latest"  ##从最新的偏移量开始消费
         topics => ["test"]  ## 数组类型,可配置多个topic
         decorate_events => true  #此属性会将当前topic、offset、group、partition等信息也带到message中
         consumer_threads => 5

    }

}
output {
    elasticsearch {
        hosts => ["10.0.0.140:9200"]
        index => "kafka-%{+YYYY.MM.dd}"
    }
    stdout{
        codec => rubydebug     ##输出到屏幕上
    }

}

  

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM