Flink BucketingSink 源码分析

2024-06-02 17:58

本文主要是介绍Flink BucketingSink 源码分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

 

0x1 摘要

BucketingSink类提供了非常完美的功能支持数据落HDFS,在实际业务中不建议自己去实现,直接采用此类可以避免一些坑。注:此文基于Flink 1.6.3 版本源码。

0x2 BucketingSink 类结构分析


我们关注RichSinkFunction、CheckpointedFunction、CheckpointListener三个父类

0x3 先看使用例子

BucketingSink<Object> sink = new BucketingSink<>(path);

sink.setBucketer(new DateTimeBucketer<>("yyyy/MM/dd"));

// 字符串形式输出

sink.setWriter(new StringWriter<>());

// 每个文件最大小限制256M,达到后关闭或创建新文件

sink.setBatchSize(1024 * 1024 * 256L);

// 设定批次滚动时间翻滚间隔30分钟,达到后关闭或创建新文件,和上面的`batchSize`双重检查决定

sink.setBatchRolloverInterval(30 * 60 * 1000L);

 

// 设定不活动桶时间阈值,超过此值便关闭文件

sink.setInactiveBucketThreshold(3 * 60 * 1000L);

// 设定检查不活动桶的频率

sink.setInactiveBucketCheckInterval(30 * 1000L);

 

// 设置正在写入的文件后缀,和默认后缀一致

sink.setInProgressSuffix(".in-progress");

// 一旦part文件关闭写入,变为挂起状态,和默认后缀一致。

// 注意:只有checkpoint成功后,.pending文件才会转为已完成状态。如果checkpoint不成功,.pending文件永不转变为完成状态。

sink.setPendingSuffix(".pending");

0x4 数据写入

我们先想一下数据流进来后如何写到HDFS文件中?最开始我的想法很简单,通过FileSystem创建一个文件流直接写入就行。那我们再往深一点想,写入发生异常了怎么办?写入异常后数据怎么恢复?怎么确定数据一致性?以上问题BucketingSink都已经帮你处理好。
下面从RichSinkFunction类的invoke方法开始一步步分析源码:

public void invoke(T value) throws Exception {

 // 通过分桶策略来初始化路径,使用例子中指定DateTimeBucketer策略,具体分桶实现看getBucketPath源码

 Path bucketPath = bucketer.getBucketPath(clock, new Path(basePath), value);

 

 long currentProcessingTime = processingTimeService.getCurrentProcessingTime();

 

 // 初始化桶状态

 BucketState<T> bucketState = state.getBucketState(bucketPath);

 if (bucketState == null) {

  bucketState = new BucketState<>(currentProcessingTime);

  state.addBucketState(bucketPath, bucketState);

 }

 

 // 判断是否需要滚动文件,下面详细介绍 shouldRoll 方法

 if (shouldRoll(bucketState, currentProcessingTime)) {

  openNewPartFile(bucketPath, bucketState);

 }

 

 // 写入数据

 bucketState.writer.write(value);

   

 //记录最近一次写入时间,按时间策略滚动有用

 bucketState.lastWrittenToTime = currentProcessingTime;

}

shouldRoll方法源码:

private boolean shouldRoll(BucketState<T> bucketState, long currentProcessingTime) throws IOException {

 boolean shouldRoll = false;

 int subtaskIndex = getRuntimeContext().getIndexOfThisSubtask();

   

 //bucketState初始状态时,设置为需要滚动

 if (!bucketState.isWriterOpen) {

  shouldRoll = true;

  LOG.debug("BucketingSink {} starting new bucket.", subtaskIndex);

 } else {

  long writePosition = bucketState.writer.getPos();

  //根据文件偏移量来判断是否达到setBatchSize方法设定的滚动阈值

  if (writePosition > batchSize) {

   shouldRoll = true;

   LOG.debug(

    "BucketingSink {} starting new bucket because file position {} is above batch size {}.",

    subtaskIndex,

    writePosition,

    batchSize);

  }

  //根据时间来判断是否达到setInactiveBucketThreshold方法设定的滚动阈值

  else {

   if (currentProcessingTime - bucketState.creationTime > batchRolloverInterval) {

    shouldRoll = true;

    LOG.debug(

     "BucketingSink {} starting new bucket because file is older than roll over interval {}.",

     subtaskIndex,

     batchRolloverInterval);

   }

  }

 }

 return shouldRoll;

}

调用shouldRoll方法判断如果需要滚动文件,则调用openNewPartFile方法创建新文件,此方法主要分为以下步骤:

  • 调用closeCurrentPartFile方法关闭当前文件,核心操作就是将progress状态文件改为pedding状态文件
  • 调用assemblePartPath方法生成新文件名,此方法涉及到子任务索引、以及当前桶计数器概念,自行看源码
  • 创建progress状态文件,并打开流

讲完shouldRoll再讲下数据写入,invoke方法中数据写入只有简简单单一行:
bucketState.writer.write(value),我们先看一下bucketState对象中writer对象哪里来,整体还是比较绕的,分下面几步:

  • 业务代码中通过BucketingSink#setWriter方法设置writerTemplate属性
  • 在openNewPartFile方法中通过writerTemplate.duplicate创建实例

有了writer对象后,我们看一下实际写入代码,以平时最常用的StringWriter为例:

public void write(T element) throws IOException {

 //这里是直接调用HDFS文件流写入数据

 FSDataOutputStream outputStream = getStream();

 outputStream.write(element.toString().getBytes(charset));

 outputStream.write('\n');

}

0x5 文件状态流转

上一节只是完成了数据写入的分析,写入到 progress的文件是不能被HIVE加载查询的,Flink采用类型二阶段提交的来保证数据的一致性,状态流转是这样的:progress->pedding->finished
本节我们来分析一下是如来来完成文件状态流转的。
上一节在openNewPartFile方法源码分析中提到closeCurrentPartFile方法会把progress状态文件转为pedding状态文件,我们再来看一下源码:

private void closeCurrentPartFile(BucketState<T> bucketState) throws Exception {

 if (bucketState.isWriterOpen) {

  bucketState.writer.close();

  bucketState.isWriterOpen = false;

 }

 

 if (bucketState.currentFile != null) {

  Path currentPartPath = new Path(bucketState.currentFile);

  Path inProgressPath = getInProgressPathFor(currentPartPath);

  Path pendingPath = getPendingPathFor(currentPartPath);

 

  //重命名文件

  fs.rename(inProgressPath, pendingPath);

  //将文件加入到pedding列表中,snapshotState方法会用到

  bucketState.pendingFiles.add(currentPartPath.toString());

  bucketState.currentFile = null;

 }

}

从pedding状态到finished状态是又是如何做的呢?大家知道Flink是通过checkpoint机制来保证数据一致性,BucketingSink也是一样用了checkpoint来保证文件状态流转,确保最终数据一致性。
文章一开始类图处就已经提到重点关注的接口,其中一个是CheckpointedFunction,他有两个方法:

  • snapshotState:检查点触发时调用
  • initializeState:初始化时调用
    按一般正常思路,大家会觉得应该在snapshotState方法将pedding状态改为finished状态,不过BucketingSink做个小技巧,方法源码就不全贴了,核心代码如下:

bucketState.pendingFilesPerCheckpoint.put(context.getCheckpointId(), bucketState.pendingFiles);

这么做的目的只是让snapshotState方法快速完成,不影响其他流,实际状态流转放到了notifyCheckpointComplete方法中,此方法来自于CheckpointListener接口,当检查点完成时调用此方法,此方法具体源码不做分析,比较简单,将pedding后缀去掉完成重命名,这样一个文件的整体生命周期就结束了。

 

这篇关于Flink BucketingSink 源码分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1024682

相关文章

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

C#使用DeepSeek API实现自然语言处理,文本分类和情感分析

《C#使用DeepSeekAPI实现自然语言处理,文本分类和情感分析》在C#中使用DeepSeekAPI可以实现多种功能,例如自然语言处理、文本分类、情感分析等,本文主要为大家介绍了具体实现步骤,... 目录准备工作文本生成文本分类问答系统代码生成翻译功能文本摘要文本校对图像描述生成总结在C#中使用Deep

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操

Redis主从/哨兵机制原理分析

《Redis主从/哨兵机制原理分析》本文介绍了Redis的主从复制和哨兵机制,主从复制实现了数据的热备份和负载均衡,而哨兵机制可以监控Redis集群,实现自动故障转移,哨兵机制通过监控、下线、选举和故... 目录一、主从复制1.1 什么是主从复制1.2 主从复制的作用1.3 主从复制原理1.3.1 全量复制

Redis主从复制的原理分析

《Redis主从复制的原理分析》Redis主从复制通过将数据镜像到多个从节点,实现高可用性和扩展性,主从复制包括初次全量同步和增量同步两个阶段,为优化复制性能,可以采用AOF持久化、调整复制超时时间、... 目录Redis主从复制的原理主从复制概述配置主从复制数据同步过程复制一致性与延迟故障转移机制监控与维

Redis连接失败:客户端IP不在白名单中的问题分析与解决方案

《Redis连接失败:客户端IP不在白名单中的问题分析与解决方案》在现代分布式系统中,Redis作为一种高性能的内存数据库,被广泛应用于缓存、消息队列、会话存储等场景,然而,在实际使用过程中,我们可能... 目录一、问题背景二、错误分析1. 错误信息解读2. 根本原因三、解决方案1. 将客户端IP添加到Re

Java汇编源码如何查看环境搭建

《Java汇编源码如何查看环境搭建》:本文主要介绍如何在IntelliJIDEA开发环境中搭建字节码和汇编环境,以便更好地进行代码调优和JVM学习,首先,介绍了如何配置IntelliJIDEA以方... 目录一、简介二、在IDEA开发环境中搭建汇编环境2.1 在IDEA中搭建字节码查看环境2.1.1 搭建步

Redis主从复制实现原理分析

《Redis主从复制实现原理分析》Redis主从复制通过Sync和CommandPropagate阶段实现数据同步,2.8版本后引入Psync指令,根据复制偏移量进行全量或部分同步,优化了数据传输效率... 目录Redis主DodMIK从复制实现原理实现原理Psync: 2.8版本后总结Redis主从复制实

锐捷和腾达哪个好? 两个品牌路由器对比分析

《锐捷和腾达哪个好?两个品牌路由器对比分析》在选择路由器时,Tenda和锐捷都是备受关注的品牌,各自有独特的产品特点和市场定位,选择哪个品牌的路由器更合适,实际上取决于你的具体需求和使用场景,我们从... 在选购路由器时,锐捷和腾达都是市场上备受关注的品牌,但它们的定位和特点却有所不同。锐捷更偏向企业级和专