spark系列-8、Spark Streaming
參考連結:http://spark.apache.org/docs/latest/streaming-programming-guide.html
一、Spark Streaming 介紹
Spark Streaming是核心Spark API的擴充套件,可實現實時資料流的可伸縮,高吞吐量,容錯流處理。資料可以從Kafka、ZeroMQ等訊息佇列以及TCP sockets或者目錄檔案從資料來源獲取資料,並且可以使用map,reduce,join和window等高階函式進行復雜演算法的處理。最後,可以將處理後的資料推送到檔案系統,資料庫和實時儀表板。
- 在內部,它的工作方式為:Spark Streaming接收實時輸入資料流,並將資料分成批次,然後由Spark引擎進行處理,以生成批次的最終結果流。
- 對應的批資料,在Spark核心對應一個RDD例項,因此,對應流資料的DStream可以看成是一組RDDs,即RDD的一個序列。通俗點理解的話,在流資料分成一批一批後,通過一個先進先出的佇列,然後 Spark Engine從該佇列中依次取出一個個批資料,把批資料封裝成一個RDD,然後進行處理,這是一個典型的生產者消費者模型,對應的就有生產者消費者模型的問題,即如何協調生產速率和消費速率。
Spark Streaming Wordcount:
-
import org.apache.spark.SparkConf import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream} import org.apache.spark.streaming.{Duration, Durations, StreamingContext} /** * @author xiandongxie */ object SparkStreamingWordCount { def main(args: Array[String]): Unit = { val conf: SparkConf = new SparkConf() .setMaster("local[2]") .setAppName("SparkStreamingWordCount") // 設定批次時間5S val duration: Duration = Durations.seconds(5) val context: StreamingContext = new StreamingContext(conf,duration) // 指定socket資料來源 val sourceDStream: ReceiverInputDStream[String] = context.socketTextStream("localhost", 6666) // 計算WordCount val resultDStream: DStream[(String, Int)] = sourceDStream.flatMap(f => f.split("\t")) .map((_, 1)) .reduceByKey(_ + _) resultDStream.print() context.start() // Start the computation context.awaitTermination() // Wait for the computation to terminate } }
二、Spark Streaming 對比 Storm
- 處理模型以及延遲
- 雖然兩框架都提供了可擴充套件性(scalability)和可容錯性(fault tolerance),但是它們的處理模型從根本上說是不一樣的。Storm可以實現亞秒級時延的處理,而每次只處理一條event,而Spark Streaming可以在一個短暫的時間窗口裡面處理多條(batches)Event。所以說Storm可以實現亞秒級時延的處理,而Spark Streaming則有一定的時延。
- 容錯和資料保證
- 然而兩者的都有容錯時候的資料保證,Spark Streaming的容錯(通過血緣關係)為有狀態的計算提供了更好的支援。在Storm中,每條記錄在系統的移動過程中都需要被標記跟蹤,所以Storm只能保證每條記錄最少被處理一次,但是允許從錯誤狀態恢復時被處理多次。這就意味著可變更的狀態可能被更新兩次從而導致結果不正確。
- Spark Streaming的容錯:通過血緣關係,是粗粒度的,保證每個批處理記錄僅僅被處理一次,即使是node節點掛掉
- Storm:細粒度的容錯,每條記錄在系統的移動過程中都需要被標記跟蹤,缺點:允許從錯誤狀態恢復時被處理多次。這就意味著可變更的狀態可能被更新兩次從而導致結果不正確。
- 批處理框架整合
- Spark Streaming的一個很棒的特性就是它是在Spark框架上執行的。這樣你就可以使用spark的批處理程式碼一樣來寫Spark Streaming程式,或者是在Spark中互動查詢比如spark-sql。這就減少了單獨編寫流處理程式和歷史資料處理程式。
- 生產支援
- 兩者都可以在各自的叢集框架中執行,但是Storm可以在Mesos上執行, 而Spark Streaming可以在YARN和Mesos上執行。
Spark Streaming優缺點:
- 優點:
- 吞吐量大、速度快。
- 容錯:SparkStreaming在沒有額外程式碼和配置的情況下可以恢復丟失的工作。checkpoint。
- 社群活躍度高。生態圈強大。因為後臺是Spark
- 資料來源廣泛。
- 缺點:
- 延遲。500毫秒已經被廣泛認為是最小批次大小。所以實際場景中應注意該問題,就像標題分類場景,設定的0.5s一批次,加上處理時間,分類介面會佔用1s的響應時間。實時要求高的可選擇使用其他框架。
三、架構與抽象
Spark Streaming使用“微批次”的架構,把流試計算當成一系列連線的小規模批處理來對待,Spark Streaming從各種輸入源中讀取資料,並把資料分成小組的批次,新的批次按均勻的時間間隔創建出來,在每個時間區間開始的時候,一個新的批次就創建出來,在該區間內收到的資料都會被新增到這個批次中,在時間區間結束時,批次停止增長。時間區間的大小是由批次間隔這個引數決定的,批次間隔一般設在500毫秒到幾秒之間,由應用開發者配置,每個輸出批次都會形成一個RDD,以Spark作業的方式處理並生成其他的RDD。並能將處理結果按批次的方式傳給外部系統。
接受器(receive)會佔用一個executor的一個cpu,所以在local[n]模式下,n > 要執行的接收器數
四、DStream 操作
- DStream 上的原語與 RDD 的類似,分為 Transformations(轉換,惰性的)和 Output Operations(輸出)兩種,此外轉換操作中還有一些比較特殊的原語,如:
- updateStateByKey()、transform() 以及各種 Window 相關的原語。
- UpdateStateByKey 返回一個新的“狀態” DStream,在該DStream中,通過在鍵的先前狀態和鍵的新值上應用給定函式來更新每個鍵的狀態。這可用於維護每個鍵的任意狀態資料。
- 如輸入:hello world,結果則為:(hello,1)(world,1),然後輸入 hello spark,結果則為 (hello,2)(spark,1)。會保留上一次資料處理的結果。
-
import org.apache.spark.SparkConf import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream} import org.apache.spark.streaming.{Durations, StreamingContext} /** * @author xiandongxie */ object SparkStreamingSocketPortUpdateState { def main(args: Array[String]): Unit = { val conf: SparkConf = new SparkConf() .setAppName("sparkstreamingsocketportupdatestate") .setMaster("local[2]") val streamingContext = new StreamingContext(conf, Durations.seconds(5)) // 設定儲存地址 streamingContext.checkpoint("/tmp/spark/sparkstreamingsocketportupdatestat") val sourceDStream: ReceiverInputDStream[String] = streamingContext.socketTextStream("localhost", 6666) val reduceDStream: DStream[(String, Int)] = sourceDStream.flatMap(_.split(" ")) .map((_, 1)) .reduceByKey(_ + _) val updateStateByKey: DStream[(String, Int)] = reduceDStream.updateStateByKey((newValues: Seq[Int], runningCount: Option[Int]) => { var total: Int = 0 for (i <- newValues) { total += i } println(newValues + "\t" + (if (runningCount.isDefined) runningCount.get else 0)) val last: Int = if (runningCount.isDefined) runningCount.get else 0 val now: Int = total + last Some(now) }) updateStateByKey.foreachRDD((r, t) => { println(s"count time:${t},${r.collect().toList}") }) streamingContext.start() streamingContext.awaitTermination() } }
- Transform() 原語允許 DStream 上執行任意的 RDD-to-RDD 函式 代替原有的DStream 轉換操作,必須返回一個RDD;通過該函式可以方便的擴充套件 Spark API。
普通的轉換操作如下表所示:
轉換 |
描述 |
map(func) |
源 DStream的每個元素通過函式func返回一個新的DStream。 |
flatMap(func) |
類似與map操作,不同的是每個輸入元素可以被映射出0或者更多的輸出元素。 |
filter(func) |
在源DSTREAM上選擇Func函式返回僅為true的元素,最終返回一個新的DSTREAM 。 |
repartition(numPartitions) |
通過輸入的引數numPartitions的值來改變DStream的分割槽大小。 |
union(otherStream) |
返回一個包含源DStream與其他 DStream的元素合併後的新DSTREAM。 |
count() |
對源DStream內部的所含有的RDD的元素數量進行計數,返回一個內部的RDD只包含一個元素的DStreaam。 |
reduce(func) |
使用函式func(有兩個引數並返回一個結果)將源DStream 中每個RDD的元素進行聚 合操作,返回一個內部所包含的RDD只有一個元素的新DStream。 |
countByValue() |
計算DStream中每個RDD內的元素出現的頻次並返回新的DStream[(K,Long)],其中K是RDD中元素的型別,Long是元素出現的頻次。 |
reduceByKey(func, [numTasks]) |
當一個型別為(K,V)鍵值對的DStream被呼叫的時候,返回型別為型別為(K,V)鍵值對的新 DStream,其中每個鍵的值V都是使用聚合函式func彙總。注意:預設情況下,使用 Spark的預設並行度提交任務(本地模式下並行度為2,叢集模式下位8),可以通過配置numTasks設定不同的並行任務數。 |
join(otherStream, [numTasks]) |
當被呼叫型別分別為(K,V)和(K,W)鍵值對的2個DStream時,返回型別為(K,(V,W))鍵值對的一個新 DSTREAM。 |
cogroup(otherStream, [numTasks]) |
當被呼叫的兩個DStream分別含有(K, V) 和(K, W)鍵值對時,返回一個(K, Seq[V], Seq[W])型別的新的DStream。 |
transform(func) |
通過對源DStream的每RDD應用RDD-to-RDD函式返回一個新的DStream,這可以用來在DStream做任意RDD操作。 |
updateStateByKey(func) |
返回一個新狀態的DStream,其中每個鍵的狀態是根據鍵的前一個狀態和鍵的新值應用給定函式func後的更新。這個方法可以被用來維持每個鍵的任何狀態資料。 |
五、視窗轉換操作
- 在Spark Streaming中,資料處理是按批進行的,而資料採集是逐條進行的,因此在Spark Streaming中會先設定好批處理間隔(batch duration),當超過批處理間隔的時候就會把採集到的資料彙總起來成為一批資料交給系統去處理。
- 對於視窗操作而言,在其視窗內部會有N個批處理資料,批處理資料的大小由視窗間隔(window duration)決定,而視窗間隔指的就是視窗的持續時間,在視窗操作中,只有視窗的長度滿足了才會觸發批資料的處理。除了視窗的長度,視窗操作還有另一個重要的引數就是滑動間隔(slide duration),它指的是經過多長時間視窗滑動一次形成新的視窗,滑動視窗預設情況下和批次間隔的相同,而視窗間隔一般設定的要比它們兩個大。在這裡必須注意的一點是滑動間隔和視窗間隔的大小一定得設定為批處理間隔的整數倍
val windowedWordCounts = pairs.reduceByKeyAndWindow((a:Int,b:Int) => (a + b), Seconds(30), Seconds(10))
視窗的計算:
Spark Streaming 還提供了視窗的計算,它允許你通過滑動視窗對資料進行轉換,視窗轉換操作如下:
轉換 |
描述 |
window(windowLength視窗大小, slideInterval滑動間隔) |
返回一個基於源DStream的視窗批次計算後得到新的DStream。 |
countByWindow(windowLength,slideInterval) |
返回基於滑動視窗的DStream中的元素的數量。 |
reduceByWindow(func, windowLength,slideInterval) |
基於滑動視窗對源DStream中的元素進行聚合操作,得到一個新的DStream。 |
reduceByKeyAndWindow(func,windowLength,slideInterval, [numTasks]) |
基於滑動視窗對(K,V)鍵值對型別的DStream中的值按K使用聚合函式func進行聚合操作,得到一個新的DStream。 |
reduceByKeyAndWindow(func,invFunc,windowLength, slideInterval, [numTasks]) |
一個更高效的reduceByKkeyAndWindow()的實現版本,先對滑動視窗中新的時間間隔內資料增量聚合並移去最早的與新增資料量的時間間隔內的資料統計量。例如,計算t+4秒這個時刻過去5秒視窗的WordCount,那麼我們可以將t+3時刻過去5秒的統計量加上[t+3,t+4]的統計量,在減去[t-2,t-1]的統計量,這種方法可以複用中間三秒的統計量,提高統計的效率。 |
countByValueAndWindow(windowLength,slideInterval, [numTasks]) |
基於滑動視窗計算源DStream中每個RDD內每個元素出現的頻次並返回DStream[(K,Long)],其中K是RDD中元素的型別,Long是元素頻次。與countByValue一樣,reduce任務的數量可以通過一個可選引數進行配置。 |
七、輸出操作
Spark Streaming允許DStream的資料被輸出到外部系統,如資料庫或檔案系統。由於輸出操作實際上使transformation操作後的資料可以通過外部系統被使用,同時輸出操作觸發所有DStream的transformation操作的實際執行(類似於RDD操作)。以下表列出了目前主要的輸出操作:
轉換 |
描述 |
print() |
在Driver中打印出DStream中資料的前10個元素。 |
saveAsTextFiles(prefix, [suffix]) |
將DStream中的內容以文字的形式儲存為文字檔案,其中每次批處理間隔內產生的檔案以prefix-TIME_IN_MS[.suffix]的方式命名。 |
saveAsObjectFiles(prefix, [suffix]) |
將DStream中的內容按物件序列化並且以SequenceFile的格式儲存。其中每次批處理間隔內產生的檔案以prefix-TIME_IN_MS[.suffix]的方式命名。 |
saveAsHadoopFiles(prefix, [suffix]) |
將DStream中的內容以文字的形式儲存為Hadoop檔案,其中每次批處理間隔內產生的檔案以prefix-TIME_IN_MS[.suffix]的方式命名。 |
foreachRDD(func) |
最基本的輸出操作,將func函式應用於DStream中的RDD上,這個操作會輸出資料到外部系統,比如儲存RDD到檔案或者網路資料庫等。需要注意的是func函式是在執行該streaming應用的Driver程序裡執行的。 |
dstream.foreachRDD
是一個強大的原語,可以將資料傳送到外部系統:
dstream.foreachRDD { rdd => rdd.foreachPartition { partitionOfRecords => // ConnectionPool is a static, lazily initialized pool of connections val connection = ConnectionPool.getConnection() partitionOfRecords.foreach(record => connection.send(record)) ConnectionPool.returnConnection(connection) // return to the pool for future reuse } }
八、checkpoint
流應用程式必須24*7全天候執行,因此必須對與應用程式邏輯無關的故障(例如,系統故障,JVM崩潰等)具有彈性。為此,Spark Streaming需要將足夠的資訊檢查點指向容錯儲存系統,以便可以從故障中恢復。檢查點有兩種型別的資料。
- 元資料檢查點 -將定義流計算的資訊儲存到HDFS等容錯儲存中。這用於從執行流應用程式的驅動程式的節點的故障中恢復。元資料包括:
- 配置 -用於建立流應用程式的配置。
- DStream操作 -定義流應用程式的DStream操作集。
- 不完整的批次 -作業排隊但尚未完成的批次。
- 資料檢查點 -將生成的RDD儲存到可靠的儲存中。在一些有狀態轉換中,這需要跨多個批次合併資料,這是必需的。在此類轉換中,生成的RDD依賴於先前批次的RDD,這導致依賴項鍊的長度隨時間不斷增加。為了避免恢復時間的這種無限制的增加(與依賴關係鏈成比例),有狀態轉換的中間RDD定期 檢查點到可靠的儲存(例如HDFS)以切斷依賴關係鏈。
總而言之,從驅動程式故障中恢復時,主要需要元資料檢查點,而如果使用有狀態轉換,即使是基本功能,也需要資料或RDD檢查點。
何時啟用檢查點:
必須為具有以下任一要求的應用程式啟用檢查點:
- 有狀態轉換的用法 -如果在應用程式中使用
updateStateByKey
或reduceByKeyAndWindow
(帶有反函式),則必須提供檢查點目錄以允許定期進行RDD檢查點。 - 從執行應用程式的驅動程式故障中恢復 -元資料檢查點用於恢復進度資訊。
注意,沒有前述狀態轉換的簡單流應用程式可以在不啟用檢查點的情況下執行。在這種情況下,從驅動程式故障中恢復也將是部分的(某些已接收但未處理的資料可能會丟失)。這通常是可以接受的,並且許多都以這種方式執行Spark Streaming應用程式。預計將來會改善對非Hadoop環境的支援。
如何配置檢查點:
可以通過在容錯,可靠的檔案系統(例如,HDFS,S3等)中設定目錄來啟用檢查點,將檢查點資訊儲存到該目錄中。這是通過使用完成的streamingContext.checkpoint(checkpointDirectory)
。這將允許您使用前面提到的有狀態轉換。此外,如果要使應用程式從驅動程式故障中恢復,則應重寫流應用程式以具有以下行為。
- 程式首次啟動時,它將建立一個新的StreamingContext,設定所有流,然後呼叫start()。
- 失敗後重新啟動程式時,它將根據檢查點目錄中的檢查點資料重新建立StreamingContext。
import org.apache.spark.SparkConf import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream} import org.apache.spark.streaming.{Durations, StreamingContext} /** * @author xiandongxie */ object SparkStreamingSocketCheckPoint { def main(args: Array[String]): Unit = { val checkpointPath = "/tmp/spark/sparkStreamingSocketCheckPoint" val strc: StreamingContext = StreamingContext.getOrCreate(checkpointPath, () => { val conf: SparkConf = new SparkConf() .setAppName("SparkStreamingSocketCheckPoint") .setMaster("local[2]") val streamingContext = new StreamingContext(conf, Durations.seconds(5)) streamingContext.checkpoint(checkpointPath) val sourceDStream: ReceiverInputDStream[String] = streamingContext.socketTextStream("localhost", 6666) val reduceDStream: DStream[(String, Int)] = sourceDStream.flatMap(_.split(" ")) .map((_, 1)) .reduceByKey(_ + _) val updateStateByKey: DStream[(String, Int)] = reduceDStream.updateStateByKey((newValues: Seq[Int], runningCount: Option[Int]) => { var total: Int = 0 for (i <- newValues) { total += i } val last: Int = if (runningCount.isDefined) runningCount.get else 0 val now: Int = total + last Some(now) }) updateStateByKey.foreachRDD((r, t) => { println(s"count time:${t},${r.collect().toList}") }) streamingContext }) strc.start() strc.awaitTermination() } }
程式碼地址:https://gitee.com/xiexiandong/abc_bigdata