spark讀取kafka數據 createStream和createDirectStream的區別


1、KafkaUtils.createDstream

構造函數為KafkaUtils.createDstream(ssc, [zk], [consumer group id], [per-topic,partitions] ) 
使用了receivers來接收數據,利用的是Kafka高層次的消費者api,對於所有的receivers接收到的數據將會保存在spark executors中,然后通過Spark Streaming啟動job來處理這些數據,默認會丟失,可啟用WAL日志,該日志存儲在HDFS上 
A、創建一個receiver來對kafka進行定時拉取數據,ssc的rdd分區和kafka的topic分區不是一個概念,故如果增加特定主體分區數僅僅是增加一個receiver中消費topic的線程數,並不增加spark的並行處理數據數量 
B、對於不同的group和topic可以使用多個receivers創建不同的DStream 
C、如果啟用了WAL,需要設置存儲級別,即KafkaUtils.createStream(….,StorageLevel.MEMORY_AND_DISK_SER)

2.KafkaUtils.createDirectStream

區別Receiver接收數據,這種方式定期地從kafka的topic+partition中查詢最新的偏移量,再根據偏移量范圍在每個batch里面處理數據,使用的是kafka的簡單消費者api 
優點: 
A、 簡化並行,不需要多個kafka輸入流,該方法將會創建和kafka分區一樣的rdd個數,而且會從kafka並行讀取。 
B、高效,這種方式並不需要WAL,WAL模式需要對數據復制兩次,第一次是被kafka復制,另一次是寫到wal中 
C、恰好一次語義(Exactly-once-semantics),傳統的讀取kafka數據是通過kafka高層次api把偏移量寫入zookeeper中,存在數據丟失的可能性是zookeeper中和ssc的偏移量不一致。EOS通過實現kafka低層次api,偏移量僅僅被ssc保存在checkpoint中,消除了zk和ssc偏移量不一致的問題。缺點是無法使用基於zookeeper的kafka監控工具


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM