Flink 原理与实现:再谈反压

2024-05-12 23:38

本文主要是介绍Flink 原理与实现:再谈反压,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

扫码关注公众号免费阅读全文:冰山烈焰的黑板报
在这里插入图片描述

Flink 原理与实现:如何处理反压问题 这一篇文章中我们讲了 Flink 的反压机制。本文我将更加详细的介绍先后采用的两种反压机制:

  • 基于 TCP 的反压(< 1.5)
  • 基于信用的反压(≥ 1.5)

1. 逻辑视图

Flink 网络栈是 flink-runtime 的核心组件,所有来自 TaskManager 的工作单元(子任务)都通过它来互相连接。你的流式传输数据流都要经过网络栈,所以它对 Flink 作业的性能表现(包括吞吐量和延迟指标)至关重要。与通过 Akka 使用 RPC 的 TaskManager 和 JobManager 之间的协调通道相比,TaskManager 之间的网络栈依赖的是更底层的,基于 Netty 的 API。下面是它的逻辑视图:
Flink 网络栈逻辑视图
它抽象了以下三种不同的配置:

  • Subtask output type (ResultPartitionType):
    • pipelined (bounded or unbounded):一旦生成数据就一条一条向下游发送,要么作为有界流,要么作为无界流。
    • blocking:只有当所有的数据都产出之后,才会向下游发送。
  • Scheduling type:
    • all at once (eager):同时部署 Job 所有的 subtask(对于流式应用)。
    • next stage on first output (lazy):一旦生产者有输出数据的时候,就部署下游的 task。
    • next stage on complete output:当任一或全部生产者生成了完整的数据集,就部署下游的 task。
  • Transport:
    • high throughput:Flink 采用缓存一批数据在 network buffer 中,并一起发送它们的方式,代替逐条发送数据的方式。以此降低单条数据的成本,提升吞吐量。
    • low latency via buffer timeout:通过降低发送未攒满 buffer 的数据,牺牲一定的吞吐以换区更低的延时。

现在我们详细说一下 output 和 scheduling types。首先,我们需要知道 subtask 的 output 和 scheduling types 是密地交织在一起,只有这两种类型的特定组合才是有效的。

Pipelined result partitions 是流式输出,需要一个正在工作的 subtask 发送数据。下游的 task 可以在结果产出之前或第一次输出时调度。批处理作业生成有界的结果,而流作业生成无界的结果。

批作业也可以采用阻塞模式,取决于使用的 operator 和 connection 模式。在这种情况下,必须先生成完整的结果,然后才能调度接收任务。这样一来,批处理作业的效率会更高,需要的资源更少。

下表总结了所有有效组合:

输出类型调度类型应用到…
pipelined, unboundedpipelined, unboundedStreaming jobs
pipelined, unboundednext stage on first outputn/a (目前 Flink 尚未使用)
pipelined, boundedall at oncen/a
pipelined, boundednext stage on first outputBatch jobs
blockingnext stage on complete outputBatch jobs

2. TCP 流量控制

在详细介绍基于 TCP 的反压之前,我们需要先了解一下 TCP 流量控制(Flow Control,即流控)。TCP 的首部如下:
TCP 首部
这里仅介绍四个比较重要的概念:

  1. Sequence Number:是包的序号,用来解决网络包乱序(reordering)问题。
  2. Acknowledgement Number:就是ACK——用于确认收到,用来解决不丢包的问题。
  3. Window:又叫 Advertised-Window,也就是著名的滑动窗口(Sliding Window),用于解决流控的。
  4. TCP Flag :也就是包的类型,主要是用于操控TCP的状态机的

假设现在有个 Sender 其发送窗口初始大小为 3,Receiver 其接收窗口固定大小为 5。通过 TCP 流控可以看到它的消息发送过程如下图:
TCP 流控图
可以看到,当 User Consumer 的消费速度赶不上 Sender 的发送速度时,Receiver 的窗口被数据填满,此时会根据 TCP 首部的 Advertised-Window 通知 Sender 降低消息发送速度,从而达到流量控制的目的。

3. 基于 TCP 的反压(< 1.5)

Flink 原理与实现:如何处理反压问题 这篇文章已有介绍,这里不做赘述,只补充一点。TaskManager 内的 subtask 造成反压,也会影响同 TaskManager 内的其他 subtask。如下图 subtask B.4 过载对数据链路造成反压,并阻止 subtask B.3 接收和处理数据,即使它仍然有可用容量。
基于 TCP 的反压

4. 基于信用的反压(≥ 1.5)

基于信用的反压(Credit-based Flow Control)可以确保正在传输的数据在接收端都有能力处理。这是在 Flink 现有机制上的自然扩展。现在每个远程 InputChannel 都有一组独占的缓存区(exclusive buffer),而不是使用共享的本地缓存区。相应地,本地缓存区被称为浮动缓存区(float buffer),因为它们是浮动的,并可用于每个 InputChannel 。

接收方将缓冲区的可用性,称为发送方的信用(1 buffer = 1 credit)。每个 ResultSubpartition 都会跟踪自己的通道信用值(channel credit)。如果有 credit 可用,那么buffer 仅转发到较低的网络栈,每发送一个 buffer,credit 就会减一。除了 buffer 之外,我们还会发送当前 backlog 的大小,从而指定在它 Subpartition 中队列中等待的 buffer 数量。接收端通过使用它,来请求适量的 float buffer,以便更快地处理 backlog。接收端会尝试获取和 backlog 的大小一样多的 float buffer,但有时事与愿违,它可能获取一些 float buffer,也可能一点都获取不到。该接收端将使用检索到的缓冲区,并侦听进一步可用的缓冲区。
基于信用的反压
Credit-based Flow Control 使用 taskmanager.network.memory.buffers-per-channel (强制的)指定独占缓存区的大小,使用 taskmanager.network.memory.floating-buffers-per-gate(可选的)指定本地缓存区的大小,通过这两个参数实现没有流控时相同缓存的限制。这两个参数的默认值可以使流控时理论上的最大吞吐量至少和非流控时的一样高。你可能需要根据网络带宽和实际的传输往返时间进行调节。

4. 总结

通过 Credit-based Flow Control,接收端和发送端之间缓存的数据更少了,我们可以更早的遇到反压。其实,缓存更多的数据也没太大的作用,如果你想继续使用流控,可以使用 taskmanager.network.memory.floating-buffers-per-gate 增加 float buffer 的数量。以下是 Credit-based Flow Control 的优缺点。

优点缺点
在多路复用连接中更好的利用数据倾斜的资源额外的 credit-announce 信息
改进 checkpoint 对齐额外的 backlog-announce 信息(附带在缓存消息中,几乎没有开销)
更少的内存使用(网络层的数据更少)潜在的往返延迟

这篇关于Flink 原理与实现:再谈反压的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/984065

相关文章

C++对象布局及多态实现探索之内存布局(整理的很多链接)

本文通过观察对象的内存布局,跟踪函数调用的汇编代码。分析了C++对象内存的布局情况,虚函数的执行方式,以及虚继承,等等 文章链接:http://dev.yesky.com/254/2191254.shtml      论C/C++函数间动态内存的传递 (2005-07-30)   当你涉及到C/C++的核心编程的时候,你会无止境地与内存管理打交道。 文章链接:http://dev.yesky

通过SSH隧道实现通过远程服务器上外网

搭建隧道 autossh -M 0 -f -D 1080 -C -N user1@remotehost##验证隧道是否生效,查看1080端口是否启动netstat -tuln | grep 1080## 测试ssh 隧道是否生效curl -x socks5h://127.0.0.1:1080 -I http://www.github.com 将autossh 设置为服务,隧道开机启动

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测 目录 时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测基本介绍程序设计参考资料 基本介绍 MATLAB实现LSTM时间序列未来多步预测-递归预测。LSTM是一种含有LSTM区块(blocks)或其他的一种类神经网络,文献或其他资料中LSTM区块可能被描述成智能网络单元,因为

vue项目集成CanvasEditor实现Word在线编辑器

CanvasEditor实现Word在线编辑器 官网文档:https://hufe.club/canvas-editor-docs/guide/schema.html 源码地址:https://github.com/Hufe921/canvas-editor 前提声明: 由于CanvasEditor目前不支持vue、react 等框架开箱即用版,所以需要我们去Git下载源码,拿到其中两个主

android一键分享功能部分实现

为什么叫做部分实现呢,其实是我只实现一部分的分享。如新浪微博,那还有没去实现的是微信分享。还有一部分奇怪的问题:我QQ分享跟QQ空间的分享功能,我都没配置key那些都是原本集成就有的key也可以实现分享,谁清楚的麻烦详解下。 实现分享功能我们可以去www.mob.com这个网站集成。免费的,而且还有短信验证功能。等这分享研究完后就研究下短信验证功能。 开始实现步骤(新浪分享,以下是本人自己实现

基于Springboot + vue 的抗疫物质管理系统的设计与实现

目录 📚 前言 📑摘要 📑系统流程 📚 系统架构设计 📚 数据库设计 📚 系统功能的具体实现    💬 系统登录注册 系统登录 登录界面   用户添加  💬 抗疫列表展示模块     区域信息管理 添加物资详情 抗疫物资列表展示 抗疫物资申请 抗疫物资审核 ✒️ 源码实现 💖 源码获取 😁 联系方式 📚 前言 📑博客主页:

探索蓝牙协议的奥秘:用ESP32实现高质量蓝牙音频传输

蓝牙(Bluetooth)是一种短距离无线通信技术,广泛应用于各种电子设备之间的数据传输。自1994年由爱立信公司首次提出以来,蓝牙技术已经经历了多个版本的更新和改进。本文将详细介绍蓝牙协议,并通过一个具体的项目——使用ESP32实现蓝牙音频传输,来展示蓝牙协议的实际应用及其优点。 蓝牙协议概述 蓝牙协议栈 蓝牙协议栈是蓝牙技术的核心,定义了蓝牙设备之间如何进行通信。蓝牙协议

python实现最简单循环神经网络(RNNs)

Recurrent Neural Networks(RNNs) 的模型: 上图中红色部分是输入向量。文本、单词、数据都是输入,在网络里都以向量的形式进行表示。 绿色部分是隐藏向量。是加工处理过程。 蓝色部分是输出向量。 python代码表示如下: rnn = RNN()y = rnn.step(x) # x为输入向量,y为输出向量 RNNs神经网络由神经元组成, python

利用Frp实现内网穿透(docker实现)

文章目录 1、WSL子系统配置2、腾讯云服务器安装frps2.1、创建配置文件2.2 、创建frps容器 3、WSL2子系统Centos服务器安装frpc服务3.1、安装docker3.2、创建配置文件3.3 、创建frpc容器 4、WSL2子系统Centos服务器安装nginx服务 环境配置:一台公网服务器(腾讯云)、一台笔记本电脑、WSL子系统涉及知识:docker、Frp

基于 Java 实现的智能客服聊天工具模拟场景

服务端代码 import java.io.BufferedReader;import java.io.IOException;import java.io.InputStreamReader;import java.io.PrintWriter;import java.net.ServerSocket;import java.net.Socket;public class Serv