Spark-Streaming之window滑動窗口應用,Spark Streaming提供了滑動窗口操作的支持,從而讓我們可以對一個滑動窗口內的數據執行計算操作。每次掉落在窗口內的RDD的數據,會被聚合起來執行計算操作,然后生成的RDD,會作為window DStream的一個RDD。
網官圖中所示,就是對每三秒鍾的數據執行一次滑動窗口計算,這3秒內的3個RDD會被聚合起來進行處理,然后過了兩秒鍾,又會對最近三秒內的數據執行滑動窗口計算。所以每個滑動窗口操作,都必須指定兩個參數,窗口長度以及滑動間隔,而且這兩個參數值都必須是batch間隔的整數倍。
Spark Streaming對滑動窗口的支持,是比Storm更加完善和強大的。
Spark-Streaming對滑動窗口支持的轉換操作:
熱點搜索詞滑動統計,每隔10秒鍾,統計最近60秒鍾的搜索詞的搜索頻次,並打印出排名最靠前的3個搜索詞以及出現次數
scala版本:
package com.spark.streaming import org.apache.spark.streaming.Seconds import org.apache.spark.streaming.StreamingContext import org.apache.spark.SparkConf /** * @author Ganymede */ object WindowHotWordS { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("WindowHotWordS").setMaster("local[2]") //Scala中,創建的是StreamingContext val ssc = new StreamingContext(conf, Seconds(5)) val searchLogsDStream = ssc.socketTextStream("spark1", 9999) val searchWordsDStream = searchLogsDStream.map { searchLog => searchLog.split(" ")(1) } val searchWordPairDStream = searchWordsDStream.map { searchWord => (searchWord, 1) } // reduceByKeyAndWindow // 第二個參數,是窗口長度,這是是60秒 // 第三個參數,是滑動間隔,這里是10秒 // 也就是說,每隔10秒鍾,將最近60秒的數據,作為一個窗口,進行內部的RDD的聚合,然后統一對一個RDD進行后續計算 // 而是只是放在那里 // 然后,等待我們的滑動間隔到了以后,10秒到了,會將之前60秒的RDD,因為一個batch間隔是5秒,所以之前60秒,就有12個RDD,給聚合起來,然后統一執行reduceByKey操作 // 所以這里的reduceByKeyAndWindow,是針對每個窗口執行計算的,而不是針對 某個DStream中的RDD // 每隔10秒鍾,出來 之前60秒的收集到的單詞的統計次數 val searchWordCountsDStream = searchWordPairDStream.reduceByKeyAndWindow((v1: Int, v2: Int) => v1 + v2, Seconds(60), Seconds(10)) val finalDStream = searchWordCountsDStream.transform(searchWordCountsRDD => { val countSearchWordsRDD = searchWordCountsRDD.map(tuple => (tuple._2, tuple._1)) val sortedCountSearchWordsRDD = countSearchWordsRDD.sortByKey(false) val sortedSearchWordCountsRDD = sortedCountSearchWordsRDD.map(tuple => (tuple._1, tuple._2)) val top3SearchWordCounts = sortedSearchWordCountsRDD.take(3) for (tuple <- top3SearchWordCounts) { println("result : " + tuple) } searchWordCountsRDD }) finalDStream.print() ssc.start() ssc.awaitTermination() } }