【Flink网络数据传输(3)】RecordWriter的能力:实现数据分发策略或广播到下游InputChannel

本文主要是介绍【Flink网络数据传输(3)】RecordWriter的能力:实现数据分发策略或广播到下游InputChannel,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一.创建RecordWriter实例都做了啥
    • 1. 根据recordWrites数量创建不同的代理类
    • 2. 创建RecordWriters
    • 3. 单个RecordWriter的创建细节
  • 二. RecordWriter包含的主要组件
    • 1. RecordWriter两种实现类分别实现分发策略和广播
    • 2. ChannelSelectorRecordWriter的发送策略
      • 2.1. ChannelSelector根据实现类实现不同发送策略
    • 2. BroadcastRecordWriter广播所有元素到下游InputChannel

StreamTask节点中的中间结果数据元素最终通过RecordWriterOutput实现了网络输出,RecordWriterOutput底层依赖RecordWriter组件完成数据输出操作,接下来我们深入了解RecordWriter的设计和实现。

一.创建RecordWriter实例都做了啥

在StreamTask构造器方法中会直接创建RecordWriter实例,用于输出当前任务产生的Intermediate Result数据

1. 根据recordWrites数量创建不同的代理类

其中createRecordWriterDelegate根据recordWrites的数量创建对应的RecordWriterDelegate代理类。

protected StreamTask(  Environment environment,  @Nullable TimerService timerService,  Thread.UncaughtExceptionHandler uncaughtExceptionHandler,  StreamTaskActionExecutor actionExecutor,  TaskMailbox mailbox)  throws Exception {...this.recordWriter = createRecordWriterDelegate(configuration, environment);...}
//1. 如果recordWrites数量等于1,则创建SingleRecordWriter代理类;
//2. 如果recordWrites数量等于0,则创建NonRecordWriter代理类;
//3. 其他情况则创建MultipleRecordWriters代理类。@VisibleForTesting  
public static <OUT>  RecordWriterDelegate<SerializationDelegate<StreamRecord<OUT>>>  createRecordWriterDelegate(  StreamConfig configuration, Environment environment) {  List<RecordWriter<SerializationDelegate<StreamRecord<OUT>>>> recordWrites =  createRecordWriters(configuration, environment);  if (recordWrites.size() == 1) {  return new SingleRecordWriter<>(recordWrites.get(0));  } else if (recordWrites.size() == 0) {  return new NonRecordWriter<>();  } else {  return new MultipleRecordWriters<>(recordWrites);  }  
}

 

2. 创建RecordWriters

获取StreamTask的所有输出边放到RecordWriters中,返回创建的RecordWriter集合。

private static <OUT> List<RecordWriter<SerializationDelegate<StreamRecord<OUT>>>> createRecordWriters(StreamConfig configuration,Environment environment) {// 创建RecordWriter集合List<RecordWriter<SerializationDelegate<StreamRecord<OUT>>>> recordWriters = new ArrayList<>();// 获取输出的StreamEdge(所有的输出边)List<StreamEdge> outEdgesInOrder = configuration.getOutEdgesInOrder(environment.getUserClassLoader());// 获取chainedConfigs参数Map<Integer, StreamConfig> chainedConfigs = configuration.getTransitiveChainedTaskConfigsWithSelf(environment.getUserClassLoader());// 遍历输出节点,分别创建RecordWriter实例for (int i = 0; i < outEdgesInOrder.size(); i++) {StreamEdge edge = outEdgesInOrder.get(i);recordWriters.add(createRecordWriter(edge,i,environment,environment.getTaskInfo().getTaskName(),chainedConfigs.get(edge.getSourceId()).getBufferTimeout()));}return recordWriters;
}

 

3. 单个RecordWriter的创建细节

看单个RecordWriter的创建过程,包括分区策略缓存结果的ResultPartition、最后通过RecordWriterBuilder创建RecordWriter、以及设定MetricGroup监控RecordWriter指标并输出。

  1. 创建outputPartitioner:StreamPartitioner分区策略会被应用在RecordWriter中,例如DataStream.rebalance()操作就会创建RebalancePartitioner作为StreamPartitioner的实现类,并通过RebalancePartitioner选择下游InputChannel,实现数据元素按照指定的分区策略下发
  2. ResultPartition: ResultPartition内部会在本地存储需要下发的Buffer数据,并等待下游节点向上游节点发送数据消费请求
  3. 通过RecordWriterBuilder创建RecordWriter,在创建过程中会设定outputPartitioner、bufferTimeout以及bufferWriter等参数。
  4. 为RecordWriter设定MetricGroup,用于监控指标的采集和输出。
private static <OUT> RecordWriter<SerializationDelegate<StreamRecord<OUT>>> createRecordWriter(StreamEdge edge,int outputIndex,Environment environment,String taskName,long bufferTimeout) {@SuppressWarnings("unchecked")// 获取边上的StreamPartitionerStreamPartitioner<OUT> outputPartitioner = (StreamPartitioner<OUT>) edge.getPartitioner();LOG.debug("Using partitioner {} for output {} of task {}", outputPartitioner, outputIndex, taskName);// 获取ResultPartitionWriterResultPartitionWriter bufferWriter = environment.getWriter(outputIndex);// 初始化Partitionerif (outputPartitioner instanceof ConfigurableStreamPartitioner) {int numKeyGroups = bufferWriter.getNumTargetKeyGroups();if (0 < numKeyGroups) {((ConfigurableStreamPartitioner) outputPartitioner).configure(numKeyGroups);}}// 创建RecordWriterRecordWriter<SerializationDelegate<StreamRecord<OUT>>> output = new RecordWriterBuilder<SerializationDelegate<StreamRecord<OUT>>>().setChannelSelector(outputPartitioner).setTimeout(bufferTimeout).setTaskName(taskName).build(bufferWriter);// 设定MetricGroup监控output.setMetricGroup(environment.getMetricGroup().getIOMetricGroup());return output;
}

 

二. RecordWriter包含的主要组件

RecordWriter内部主要包含RecordSerializer和ResultPartitionWriter两个组件。

  • RecordSerializer用于对输出到网络中的数据进行序列化操作,将数据元素序列化成Bytes[]二进制格式,维护Bytes[]数据中的startBuffer及position等信息
  • ResultPartitionWriter是ResultPartition实现的接口,提供了将数据元素写入ResultPartiton的方法,例如addBufferConsumer()方法就是将RecordSerializer序列化的BufferConsumer数据对象添加到ResultPartition队列并进行缓存,供下游InputGate消费BufferConsumer对象

 

1. RecordWriter两种实现类分别实现分发策略和广播

RecordWriter主要有两种实现类:ChannelSelectorRecordWriter和BroadcastRecordWriter。

  • ChannelSelectorRecordWriter根据ChannelSelector选择下游节点的InputChannel,ChannelSelector内部基于StreamPartitoner获取不同的数据下发策略,最终实现数据重分区。
  • BroadcastRecordWriter对应广播式数据下发,即数据元素会被发送到下游所有的InputChannel中。当用户执行了Broadcast操作时,就会创建BroadcastRecordWriter实现数据元素的广播下发操作。

如代码:通过RecordWriterBuilder创建RecordWriter,此时会根据selector.isBroadcast()条件选择创建ChannelSelectorRecordWriter还是BroadcastRecordWriter实例。

public RecordWriter<T> build(ResultPartitionWriter writer) {if (selector.isBroadcast()) {return new BroadcastRecordWriter<>(writer, timeout, taskName);} else {return new ChannelSelectorRecordWriter<>(writer, selector, timeout, taskName);}
}

 

2. ChannelSelectorRecordWriter的发送策略

ChannelSelectorRecordWriter控制数据元素发送到下游的哪些InputChannel中。如代码,调用channelSelector.selectChannel(record)选择下游的InputChannel。

对于非广播类型的分区器,最终都会创建ChannelSelectorRecordWriter实现StreamRecord数据的下发操作。

public void emit(T record) throws IOException, InterruptedException {emit(record, channelSelector.selectChannel(record));
}

 

2.1. ChannelSelector根据实现类实现不同发送策略

ChannelSelector的实现类主要有StreamPartitioner、RoundRobinChannelSelector和OutputEmitter三种。

  • StreamPartitioner:DataStream API中物理操作指定的分区器,例如当用户调用DataStream.rebalance()方法时,会创建RebalencePartitioner。在StreamTask执行的过程中,会获取相应的StreamPartitioner应用在ChannelSelectorRecordWriter中,实现对数据元素分区的选择。
  • RoundRobinChannelSelector:ChannelSelector的默认实现类,提供了对Round-Robin策略的支持,以轮询的方式随机选择一个分区输出数据元素。
  • OutputEmitter:适用于BatchTask,须配合ShipStrategyType使用,通过ShipStrategyType执行的策略输出数据。

 

2. BroadcastRecordWriter广播所有元素到下游InputChannel

BroadcastRecordWriter的实现就比较简单了,在BroadcastRecordWriter中不需要ChannelSelector组件选择数据元素分区,直接将所有的数据元素广播发送到下游所有InputChannel中即可。

在这里插入图片描述

 

这篇关于【Flink网络数据传输(3)】RecordWriter的能力:实现数据分发策略或广播到下游InputChannel的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/781238

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time