本文主要是介绍Spark Streaming持久化机制,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
可以对DStream调用persist()方法持久化到内存中。
对于基于窗口的操作,比如reduceByWindow、reduceByKeyAndWindow,以及基于状态的操作,比如updateStateByKey,默认就隐式开启了持久化机制,不需要手动调用persist()方法持久化到内存中。
对于通过网络接收数据的输入流,比如socket、Kafka、Flume等,默认的持久化级别是将数据复制一份切序列化。相当于是,用的是类似MEMORY_ONLY_SER_2。
为什么Spark Streaming只在内存中持久化?因为追求速度。
这篇关于Spark Streaming持久化机制的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!