【大数据】流处理基础概念(一):Dataflow 编程基础、并行流处理

2024-01-22 00:28

本文主要是介绍【大数据】流处理基础概念(一):Dataflow 编程基础、并行流处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

流处理基础概念(一):Dataflow 编程基础、并行流处理

  • 1.Dataflow 编程基础
    • 1.1 Dataflow 图
    • 1.2 数据并行和任务并行
    • 1.3 数据交换策略
  • 2.并行流处理
    • 2.1 延迟与吞吐
      • 2.1.1 延迟
      • 2.1.2 吞吐
      • 2.1.3 延迟与吞吐
    • 2.2 数据流上的操作
      • 2.2.1 数据接入和数据输出
      • 2.2.2 转换操作
      • 2.2.3 滚动聚合
      • 2.2.4 窗口操作
        • 2.2.4.1 滚动窗口
        • 2.2.4.2 滑动窗口
        • 2.2.4.3 会话窗口
        • 2.2.4.4 小结

1.Dataflow 编程基础

1.1 Dataflow 图

Dataflow 程序描述了数据如何在不同操作之间流动。Dataflow 程序通常表示为 有向图。图中 顶点 称为 算子,表示计算;而 表示 数据依赖关系算子是 Dataflow 程序的基本功能单元,它们从输入获取数据对其进行计算,然后产生数据并发往输出,以供后续处理。没有输入端的算子称为 数据源data sources),没有输出端的算子称为 数据汇data sinks)。一个 Dataflow 图至少要有一个数据源和一个数据汇。

在这里插入图片描述
上图中的 Dataflow 图被称作 逻辑图,因为它们表达了高层视角下的计算逻辑。为了执行 Dataflow 程序,需要将逻辑图转化为 物理 Dataflow 图。后者会指定程序的执行细节,例如,当我们使用分布式处理引擎时,每个算子可能会在不同物理机器上运行多个并行任务。在逻辑 Dataflow 图中,顶点代表算子。在物理 Dataflow 图中,顶点代表任务。如下图所示,“抽取主题标签” 和 “计数” 算子都包含 2 个并行算子任务,每个任务负责计算一部分输入数据。
在这里插入图片描述

1.2 数据并行和任务并行

Dataflow 图的并行性可以通过多种方式加以利用。

首先你可以将输入数据分组,让同一操作的多个任务并行执行在不同数据子集上,这种并行称为 数据并行。数据并行非常有用,因为它能够将计算负载分配到多个节点上,从而允许处理大规模的数据。

再者,你可以让不同算子的任务(基于相同或不同的数据)并行计算,这种并行称为任务并行。通过任务并行,可以更好的利用集群的计算资源。

1.3 数据交换策略

数据交换策略定义了如何将数据项分配给物理 Dataflow 图中的不同任务。这些策略可以由执行引擎根据算子的语义自动选择,也可以由 Dataflow 编程人员显示指定。常见的数据交换策略如下图所示:转发广播基于键值随机

在这里插入图片描述

2.并行流处理

在此,我们给出数据流的定义:数据流是一个可能无限的事件序列。数据流中的事件可以表示 监控数据传感器测量值信用卡交易气象站观测数据在线用户交互,以及 网络搜索 等。

2.1 延迟与吞吐

对于批处理应用而言,我们通常会关心作业的总执行时间,或者说处理引擎读取输入、执行计算、写回结果总共需要多长时间。但由于流式应用会持续执行且输入可能是无限的,所以在数据流处理中,没有总执行时间的概念。取而代之的是,流式应用需要针对到来数据 尽可能快的计算结果,同时还要应对 很高的事件接入速率,我们用 延迟吞吐 来表示这两方面的性能需求。

2.1.1 延迟

延迟表示处理一个事件所需的时间,本质上它是从接收事件到在输出中观察到事件处理效果的时间间隔。

在流处理中,延迟是以时间片(例如毫秒)为单位测量的。根据应用的不同,你可能会关注平均延迟,最大延迟或延迟的百分位数值。

保证低延迟,对很多流式应用(例如:诈骗识别、系统告警、网络监测,以及遵循服务级别协议的服务)而言至关重要。低延迟是流处理的一个关键特性,它滋生出了所谓的实时应用。

2.1.2 吞吐

吞吐是用来衡量系统处理能力(处理速率)的指标,它告诉我们系统 每单位时间可以处理多少事件

吞吐的衡量方式是计算每个单位时间的事件或操作数。但要注意,处理速率取决于数据到来速率,因此吞吐低不一定意味着性能差。在流处理系统中,你通常希望系统有能力应对以最大期望速率到来的事件。换言之,首要的关注点是确定 峰值吞吐,即系统满负载时的性能上限。

2.1.3 延迟与吞吐

延迟和吞吐并非相互独立的指标。如果事件在数据处理管道中传输时间太久,我们将难以确保高吞吐;同样,如果系统性能不足,事件很容易堆积缓冲,必须等待一段时间才能处理。然而,通过并行处理多条数据流,可以在处理更多事件的同时降低延迟。

2.2 数据流上的操作

流处理引擎通常会提供一系列内置操作来实现数据流的获取、转换,以及输出。这些算子可以组合生成 Dataflow 处理图,从而实现流式应用所需的逻辑。

这些操作既可以是 无状态stateless)的,也可以是 有状态stateful)的。无状态的操作不会维持内部状态,即处理事件时无需依赖已处理过的事件,也不保存历史数据。由于事件处理互不影响且与事件带来的时间无关,无状态的操作很容易并行化。此外,如果发生故障,无状态的算子可以很容易地重启,并从中断处继续工作。相反,有状态算子可能需要维护之前接收的事件信息。它们的状态会根据传入的事件更新,并用于未来事件的处理逻辑中。有状态的流处理应用在并行化和容错方面会更具挑战性,因为它们需要对状态进行高效划分,并且在出错时需进行可靠的故障恢复。

2.2.1 数据接入和数据输出

数据接入和数据输出操作允许流处理引擎和外部系统进行通信。数据接入操作是从外部数据源获取原始数据并将其转换成适合后续处理的格式。实现数据接入操作逻辑的算子称为 数据源。数据源可以从 TCP 套接字、文件、Kafka 主题或传感器数据接口中获取数据。数据输出操作是将数据嗯以适合外部系统使用的格式输出。负责数据输出的算子称为 数据汇,其写入的目标可以是文件、数据库、消息队列或监控接口等。

2.2.2 转换操作

转换操作是一类 只过一次 的操作,它们会分别处理每个事件。这些操作逐个读取事件,对其应用某些转换并产生一条新的输出流。转换逻辑可以是算子内置的,也可以由用户自定义函数提供。
在这里插入图片描述
算子既可以同时接收多个输入流或产生多条输出流,也可以通过单流分割或合并多条流来改变 Dataflow 图的结构。

2.2.3 滚动聚合

滚动聚合(如求和、求最小值和求最大值)会根据每个到来的事件持续更新结果。聚合操作都是有状态的,它们通过将新到来的事件合并到已有状态来生成更新后的聚合值。注意,为了更有效的合并事件和当前状态并生成单个结果,聚合函数必须满足 可结合可交换 的条件,否则算子就要存储整个流的历史记录。下图展示了一个求最小值的滚动聚合,其算子会维护当前的最小值,并根据每个到来的事件去更新这个值。
在这里插入图片描述

2.2.4 窗口操作

转换操作和滚动聚合每次处理一个事件来产生输出并(可能)更新状态。然而,有些操作必须收集并缓冲记录才能计算结果。例如流式 Join 或像是求中位数的整体聚合(holistic aggregate)。为了在无限数据流上高效地执行这些操作,必须对操作所维持的数据量加以限制。窗口操作 支持这项功能。

除了产生单个有用的结果,窗口操作还支持在数据流上完成一些具有切实语义价值的查询。你已经了解滚动聚合是如何将整条历史流压缩成一个聚合值,以及如何针对每个事件在极低延迟内产生结果。该操作对某些应用而言是可行的,但如果你只对最新的那部分数据感兴趣该怎么办呢?

窗口操作会持续创建一些称为 有限事件集合,并允许我们基于这些有限集进行计算。事件通常会根据其时间或其他数据属性分配到不同桶中。为了准确定义窗口算子语义,我们需要决定事件如何分配到桶中以及窗口用怎样的频率产生结果。窗口的行为是由一系列策略定义的,这些窗口策略决定了 什么时间创建桶事件如何分配到桶中 以及 桶内数据什么时间参与计算

其中参与计算的决策会根据触发条件判定,当触发条件满足时,桶内数据会发送给一个 计算函数evolution function),由它来对桶中的元素应用计算逻辑。这些计算函数可以是某些聚合(例如求和,求最小值),也可以是一些直接作用于桶内收集元素的自定义操作。策略的指定可以基于时间(例如最近 5 秒钟接收的事件)、数量(例如最新 100 个事件)或其他数据属性。

2.2.4.1 滚动窗口

滚动窗口(tumbling window)将事件分配到长度固定且互不重叠的桶中,在窗口边界通过后,所有事件会发送给计算函数进行处理。

基于数量的滚动窗口 定义了在触发计算器需要集齐多少条事件。

在这里插入图片描述
基于时间的滚动窗口 定义了在桶中缓冲数据的时间间隔。
在这里插入图片描述

2.2.4.2 滑动窗口

滑动窗口(sliding window)将事件分配到大小固定且允许相互重叠的桶中,这意味着每个事件可能会同时属于多个桶。我们通过指定长度(fixed length)和滑动间隔(slide)来定义滑动窗口。滑动间隔决定每隔多久生成一个新的桶。

在这里插入图片描述
上图为长度为 4 个事件、滑动间隔为 3 个事件的基于数量的滑动窗口。

2.2.4.3 会话窗口

会话窗口(session window)在一些常见的真实场景中非常有用,这些场景既不适合用滚动窗口,也不适合用滑动窗口。假设有一个应用要在线分析用户行为,在该应用中我们要把事件按照用户的同一活动或会话来源进行分组。会话由发生在相邻时间内的一系列事件,外加一段非活动时间组成。例如,用户浏览一连串新闻文章的交互过程,可以看做一个会话。由于会话长度并非预先定义好,而是和实际数据有关,所以无论是滚动还是滑动窗口都无法用于该场景。而我们需要一个窗口操作,能将属于同一会话事件分配到相同桶中。会话窗口根据会话间隔(session gap)将事件分为不同的会话,该间隔值定义了绘画在关闭前的非活动时间长度。

在这里插入图片描述

2.2.4.4 小结

迄今为止,你所见到的所有窗口都是基于 全局流数据 的窗口。但在实际应用中,你可能会想将数据流划分为多条逻辑流并定义一些并行窗口。例如,如果你在收集来自不同传感器的测量值,那么可能会想在应用窗口计算器按照传感器 ID 对数据流进行划分。并行窗口中,每个数据分区所应用的窗口策略都相互独立。下图展示了一个按事件颜色划分、基于数量 2 的并行滚动窗口。

在这里插入图片描述

窗口操作与流处理中两个核心概念密切相关:时间语义time semantics)和 状态管理state management)。时间可能是流处理中最重要的一个方面。尽管低延迟是流处理中一个很吸引人的特性,但流处理的真正价值远不止提供快速分析。

现实世界的系统、网络及通信信道往往充斥着缺陷,因此流数据通常都会有所延迟或者以乱序到达。了解如何在这种情况下提供精准确定的结果就变得至关重要。此外,处理实时事件的流处理应用还应以相同的方式处理历史事件,这样才能支持离线分析,甚至时间旅行式分析(time travel analysis)。当然,如果你的系统无法在故障时保护状态,那一切都是空谈。

至今为止你见到的所有窗口类型都要在生成结果前缓冲数据。实际上,如果你想在流式应用中计算任何有意义的结果(即便是简单的计数),都需要维护状态。考虑到流式应用可能需要整日、甚至长年累月的运行,因此必须保证出错时其状态能进行可靠的恢复,并且即使系统发生故障,系统也能提供准确的结果。后续,我们将深入研究流处理中的时间以及发生故障时和状态保障相关的概念。

这篇关于【大数据】流处理基础概念(一):Dataflow 编程基础、并行流处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/631310

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal