本文主要是介绍Flink 原理与实现:Checkpoint,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
扫码关注公众号免费阅读全文:冰山烈焰的黑板报
众所周知,Flink 采用 Asynchronous Barrier Snapshotting(简称 ABS)算法实现分布式快照的。但是,本文着重介绍 Flink Checkpoint 工作过程,并且用图形化方式描述 Checkpoint 在 Flink 中的实现,Failure Recovery Mechanism(失败恢复机制),以及 Performance of Checkpointing。
1. Consistent Checkpoint
1.1 Naive Checkpoint
有状态的流式应用程序的 Consistent Checkpoint 是指,在某一时刻每个算子在所有的算子已经处理完相同的输入时的 State 副本(建议先阅读Flink 原理与实现:State)。Naive Consistent Checkpoint 可以描述成以下步骤:
- 暂停所有输入流的接收;
- 等待正在处理的数据完成计算,换言之,所有算子必须已经处理完它们所有的输入数据;
- 拷贝每个算子的 State 到远程,并持久化存储之。当所有算子都已经完成了各自的拷贝,那么这次的 Checkpoint 也就完成了;
- 继续接收输入流。
但是,Flink 并没有直接采用 Naive Consistent Checkpoint,我将在后文介绍 Flink 采用的更精致的 Checkpoint 算法。图1 展示了 Naive Consistent Checkpoint 的过程。
上图中有一个输入流持续生产自增的正整数,即 1、2、3……Source 将这些数字按照奇偶分到两个分区中,并将输入流的当前 Offset 作为 State 存储起来。然后,由 Sum 算子对接收到的数字进行求和运算。在图1 中,做 Checkpoint 时,Source 中的 Offset 是 5,奇偶 Sum 算子中的和分别是 9、6。
1.2 Recovery from Consistent Checkpoint
在流式应用程序执行的过程中,Flink 会周期性地 Checkpoint 应用程序的 State。为了从失败中恢复,Flink 会从最近 Checkpoint 的 State 中重新启动处理数据。这种 Recovery Mechanism 可以分为 3 个步骤:
- 重启整个应用程序;
- 把所有状态算子的 State 重置为最近一次的 Checkpoint State;
- 继续所有算子的处理。
这种 Failure Recovery Mechanism 可以用图2 简单的表示。
通过对所有算子做 Checkpoint,存储所有算子的 State,以及所有输入流可以把被消费的位置重置到 Checkpoint 的 State 的地方,这种 Checkpoint 和 Failure Recovery Mechanism 方法可以保证 Extractly-Once 语义。由此观之,一个流式应用程序能否支持 Extractly-Once ,取决于输入流是否满足以下特性:
- 输入流提供 Offset;
- 输入流可以重放,以便重置到之前的 Offset。
比如,订阅 Apache Kafka 消息的流式应用程序可以支持 Extractly-Once,相反,消费 Socket 的流式应用程序却做不到。需要注意的一点是,当流式应用程序从 Checkpoint 的 State 重启之后,它也会处理该 Checkpoint 之后和本次失败之前的数据。换句话说,系统会对一些数据处理两次,即便如此,这种机制仍然可以保证 State 一致性,或者说结果的正确性,因为所有算子的 State 会被重置至它们还没处理到这些数据的位置(关于 Extractly-Once 语义的真正含义,建议阅读流计算中的 Exactly Once 语义)。
另一个值得一提的事情是,Flink 的 Checkpoint 和 Failure Recovery Mechanism 仅仅只能保证内部 State 的 Extractly-Once 。对于有 Sink 算子的应用程序,在 Recovery 的过程中,有些数据会被多次 Sink 到外部存储系统,比如文件系统,数据库系统等。对于 Flink 的 End-to-End Extractly-Once(端到端的 Extractly-Once),我后续会有文章专门讨论(请关注笔者 (♥◠‿◠♥))。
2. Flink Checkpoint Algorithm
前面讨论过 Naive Consistent Checkpoint 需要流式应用程序暂停、Checkpoint、重启,这就引入了 “Stop-the-World(STW)”。由于 STW,这对于中等延迟要求的应用程序而言都不实际。虽然 Flink 的 Checkpoint 也是基于 Consistent Checkpoint,不过幸运的是,Flink 实现 Checkpoint 是采用了 Chandy-Lamport 算法的改进版 Asynchronous Barrier Snapshotting 算法。该算法把 Checkpoint 从算子处理中解耦,在不停止整个应用程序的情况下,某些算子可以继续处理数据,而其他算子则持久化它们的 State。下文就开始介绍这个算法的工作过程了。
Flink Checkpoint 算法使用了一个特殊的数据结构——Checkpoint Barrier。Checkpoint Barrier 被 Source 算子注入到数据流中,但是不会影响数据的正常处理。Checkpoint Barrier 用 Checkpoint ID 标志它所属的 Checkpoint,并在逻辑上将流分为两部分。Checkpoint Barrier 之前的数据的所有 State 修改,包含在这个 Barrier 对应的 Checkpoint 中;这个 Checkpoint Barrier 之后的数据的所有 State 修改,包含在后续的 Checkpoint 中。例如,在图3 中 Checkpoint Barrier N 前面红色的数据和 Checkpoint Barrier N 的颜色相同,表示这些数据都是由 Checkpoint Barrier N 应该负责,而 Checkpoint Barrier N 后面黄色的数据就不属于 Checkpoint Barrier N。
明白 Checkpoint Barrier 之后,现在我用下面这个例子一步一步解释这个过程:假设有两个 Source 算子分别消费两个生产自增正整数的输入流;然后,Source 的结果分区到奇偶两个 Sum 算子,Sum 算子会对接收到的正整数进行求和运算;最后,算子的结果会下发到 Sink 算子。这个过程可以简单的表示成图4。
JobManager 发送一条带有 Checkpoint ID 的 Barrier 到每个 Source 算子,进行 Checkpoint 的初始化,如图5 所示。
当 Source 算子接收到 Barrier 时,它就暂停提交数据,同时 Checkpoint 本地 State 到 State Backend,并且广播携带 Checkpoint ID 的这个 Checkpoint Barrier 到所有下游分区。一旦算子 的 State Checkpoint 完成,并且算子确认在 JobManager 中有这个 Checkpoint 的信息,State Backend 就会通知该算子。当所有的 Barrier 发出后,Source 算子继续照常执行。通过注入 Barrier,Source 算子知道 Checkpoint 发生在流中的哪个位置。图6 展示这一过程。
Checkpoint Barrier 广播到所有连接的并行算子,以确保每个算子可以从输入分区中接收 Barrier。当一个算子接收到一次新的 Checkpoint 对应的 Barrier 时,它会等待所有输入分区中属于这次 Checkpoint 的 Barrier 到达。然而在等待的过程中,它会继续处理来自尚未提供 Barrier 的流中的数据。在算子的其中一个输入分区的 Barrier 之后到达,且属于该 Barrier 的已到达数据不能被处理并被缓存,以等待其他输入分区的 Barrier 到达。等待所有 Barrier 的过程叫作 Barrier Alignment,它可以用图7 简单的表示出来。
如果算子接收到它的输入分区中的 Barrier,它将在 State Backend 中初始化一个 Checkpoint,并且广播该 Checkpoint 的 Barrier 到它的所有下游,如图7 所示。
一旦所有的 Barrier 都已提交,算子就开始处理缓存的数据。当缓存中的所有数据也提交之后,算子继续处理输入流。图9 表示了这个过程。
当 Sink 算子接收到一个 Barrier 的时候,它也会像其他算子那样——进行 Barrier Alignment,Checkpoint 它自己的 State,确认 JobManager 已收到该 Barrier。当 JobManager 收到应用程序的所有算子的 Checkpoint 的确认,就标志着这个应用程序的 Checkpoint 过程已完成。图10 描述了这最后一步。完成的 Checkpoint 也可像前文描述的那样用于失败恢复。
为了简单起见,还可以采用填表的方法描述 Flink Checkpoint 过程。还用上面的例子,当黄蓝色这个 Job 的 所有算子在表中填满之后,表示本次 Checkpoint 完成,如图11 所示。
3. Performance of Checkpointing
Flink Checkpoint 算法可以避免 STW,但是,为了进一步提高流式应用程序的处理延迟,Flink 做了以下这些调整,可以在某些情况下提升性能:
- Extractly-Once with Incremental Checkpointing。
- At-Least-Once
在 Extractly-Once 的场景中,任务 Checkpoint 它的 State 时,需要缓存数据以便 Barrier Alignment。由于 State 会变得比较大,Checkpoint 通过网络写数据到远程存储时,可能会花费数秒钟到数分钟不等。在 Flink 的设计中,State Backend 负责存储 Checkpoint。所以,具体怎样拷贝任务的 State 取决于 State Backend 的实现。比如,文件系统和 RocksDB 作为 Stat Backend 时,都支持异步 Checkpoint。当 Checkpoint 触发时,State Backend 会创建本地的 State 拷贝。本地拷贝创建完之后,任务继续照常运行。后台线程会异步将本地拷贝快照到远程存储,并且当 Checkpoint 完成时,通知任务。异步 Checkpoint 大大减少了任务继续处理数据前的时间。另外,RocksDB State Backend 的 Incremental Checkpointing 特性,可以降低数据传输时间。
另一个降低 Checkpoint 延迟的方法通过对 Barrier Alignment 这个环节的调整。对于某些实时性要求高的流式应用程序,Flink 可以配置成在 Barrier Alignment 期间处理所有到达的数据,而不是缓存它们。一旦一个 Checkpoint 的所有 Barrier 都到达,该算子就 Checkpoint 它的 State,这也包括属于下一个 Checkpoint 的数据。这种情况下,当失败恢复时,这些数据会被再次处理,此时 Flink 提供的就是 At-Least-Once 保证。
4. 总结
本文介绍了 Naive Consistent Checkpoint、Flink Checkpoint Algorithm、Failure Recovery Mechanism,和如何调整 Flink Checkpoint 的性能。
这篇关于Flink 原理与实现:Checkpoint的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!