【Flink】双流处理:实时对账实现

2024-08-29 10:32

本文主要是介绍【Flink】双流处理:实时对账实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Flink双流处理:实时对账实现

  • 一、基础概念
  • 二、双流处理的方法
    • Connect
    • Union
    • Join
  • 三、实战:实时对账实现
    • 需求描述
    • 需求分析
    • 代码实现
  • 相关阅读

更多内容详见:https://github.com/pierre94/flink-notes

一、基础概念

主要是两种处理模式:

  • Connect/Join
  • Union

二、双流处理的方法

Connect

DataStream,DataStream → ConnectedStreams

连接两个保持他们类型的数据流,两个数据流被Connect之后,只是被放在了一个同一个流中,内部依然保持各自的数据和形式不发生任何变化,两个流相互独立。

Connect后使用CoProcessFunction、CoMap、CoFlatMap、KeyedCoProcessFunction等API 对两个流分别处理。如CoMap:

val warning = high.map( sensorData => (sensorData.id, sensorData.temperature) )
val connected = warning.connect(low)val coMap = connected.map(
warningData => (warningData._1, warningData._2, "warning"),
lowData => (lowData.id, "healthy")
)

(ConnectedStreams → DataStream 功能与 map 一样,对 ConnectedStreams 中的每一个流分别进行 map 和 flatMap 处理。)

疑问,既然两个流内部独立,那Connect 后有什么意义呢?

Connect后的两条流可以共享状态,在对账等场景具有重大意义!

Union


DataStream → DataStream:对两个或者两个以上的 DataStream 进行 union 操作,产生一个包含所有 DataStream 元素的新 DataStream。

val unionStream: DataStream[StartUpLog] = appStoreStream.union(otherStream) unionStream.print("union:::")

注意:Union 可以操作多个流,而Connect只能对两个流操作

Join

Join是基于Connect更高层的一个实现,结合Window实现。

相关知识点比较多,详细文档见: https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/stream/operators/joining.html

三、实战:实时对账实现

需求描述

有两个时间Event1、Event2,第一个字段是时间id,第二个字段是时间戳,需要对两者进行实时对账。当其中一个事件缺失、延迟时要告警出来。

需求分析

类似之前的订单超时告警需求。之前数据源是一个流,我们在function里面进行一些改写。这里我们分别使用Event1和Event2两个流进行Connect处理。

// 事件1
case class Event1(id: Long, eventTime: Long)
// 事件2
case class Event2(id: Long, eventTime: Long)
// 输出结果
case class Result(id: Long, warnings: String)

代码实现

scala实现

涉及知识点:

  • 双流Connect
  • 使用OutputTag侧输出
  • KeyedCoProcessFunction(processElement1、processElement2)使用
  • ValueState使用
  • 定时器onTimer使用

启动两个TCP服务:

nc -lh 9999
nc -lk 9998

注意:nc启动的是服务端、flink启动的是客户端

import java.text.SimpleDateFormatimport org.apache.flink.api.common.state.{ValueState, ValueStateDescriptor}
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.functions.co.KeyedCoProcessFunction
import org.apache.flink.streaming.api.scala.{StreamExecutionEnvironment, _}
import org.apache.flink.util.Collectorobject CoTest {val simpleDateFormat = new SimpleDateFormat("dd/MM/yyyy:HH:mm:ss")val txErrorOutputTag = new OutputTag[Result]("txErrorOutputTag")def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironmentenv.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)env.setParallelism(1)val event1Stream = env.socketTextStream("127.0.0.1", 9999).map(data => {val dataArray = data.split(",")Event1(dataArray(0).trim.toLong, simpleDateFormat.parse(dataArray(1).trim).getTime)}).assignAscendingTimestamps(_.eventTime * 1000L).keyBy(_.id)val event2Stream = env.socketTextStream("127.0.0.1", 9998).map(data => {val dataArray = data.split(",")Event2(dataArray(0).trim.toLong, simpleDateFormat.parse(dataArray(1).trim).getTime)}).assignAscendingTimestamps(_.eventTime * 1000L).keyBy(_.id)val coStream = event1Stream.connect(event2Stream).process(new CoTestProcess())//    union 必须是同一条类型的流//    val unionStream = event1Stream.union(event2Stream)//    unionStream.print()coStream.print("ok")coStream.getSideOutput(txErrorOutputTag).print("txError")env.execute("union test")}//共享状态class CoTestProcess() extends KeyedCoProcessFunction[Long,Event1, Event2, Result] {lazy val event1State: ValueState[Boolean]= getRuntimeContext.getState(new ValueStateDescriptor[Boolean]("event1-state", classOf[Boolean]))lazy val event2State: ValueState[Boolean]= getRuntimeContext.getState(new ValueStateDescriptor[Boolean]("event2-state", classOf[Boolean]))override def processElement1(value: Event1, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#Context, out: Collector[Result]): Unit = {if (event2State.value()) {event2State.clear()out.collect(Result(value.id, "ok"))} else {event1State.update(true)//等待一分钟ctx.timerService().registerEventTimeTimer(value.eventTime + 1000L * 60)}}override def processElement2(value: Event2, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#Context, out: Collector[Result]): Unit = {if (event1State.value()) {event1State.clear()out.collect(Result(value.id, "ok"))} else {event2State.update(true)ctx.timerService().registerEventTimeTimer(value.eventTime + 1000L * 60)}}override def onTimer(timestamp: Long, ctx: KeyedCoProcessFunction[Long, Event1, Event2, Result]#OnTimerContext, out: Collector[Result]): Unit = {if(event1State.value()){ctx.output(txErrorOutputTag,Result(ctx.getCurrentKey,s"no event2,timestamp:$timestamp"))event1State.clear()}else if(event2State.value()){ctx.output(txErrorOutputTag,Result(ctx.getCurrentKey,s"no event1,timestamp:$timestamp"))event2State.clear()}}}}

相关阅读

《Flink状态编程: 订单超时告警》:
https://blog.csdn.net/u013128262/article/details/104648592

《github:Flink学习笔记》:
https://github.com/pierre94/flink-notes


原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

https://cloud.tencent.com/developer/article/1596145

这篇关于【Flink】双流处理:实时对账实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1117607

相关文章

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Java实现Excel与HTML互转

《Java实现Excel与HTML互转》Excel是一种电子表格格式,而HTM则是一种用于创建网页的标记语言,虽然两者在用途上存在差异,但有时我们需要将数据从一种格式转换为另一种格式,下面我们就来看看... Excel是一种电子表格格式,广泛用于数据处理和分析,而HTM则是一种用于创建网页的标记语言。虽然两

Java中Springboot集成Kafka实现消息发送和接收功能

《Java中Springboot集成Kafka实现消息发送和接收功能》Kafka是一个高吞吐量的分布式发布-订阅消息系统,主要用于处理大规模数据流,它由生产者、消费者、主题、分区和代理等组件构成,Ka... 目录一、Kafka 简介二、Kafka 功能三、POM依赖四、配置文件五、生产者六、消费者一、Kaf

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

windos server2022里的DFS配置的实现

《windosserver2022里的DFS配置的实现》DFS是WindowsServer操作系统提供的一种功能,用于在多台服务器上集中管理共享文件夹和文件的分布式存储解决方案,本文就来介绍一下wi... 目录什么是DFS?优势:应用场景:DFS配置步骤什么是DFS?DFS指的是分布式文件系统(Distr

NFS实现多服务器文件的共享的方法步骤

《NFS实现多服务器文件的共享的方法步骤》NFS允许网络中的计算机之间共享资源,客户端可以透明地读写远端NFS服务器上的文件,本文就来介绍一下NFS实现多服务器文件的共享的方法步骤,感兴趣的可以了解一... 目录一、简介二、部署1、准备1、服务端和客户端:安装nfs-utils2、服务端:创建共享目录3、服

C#使用yield关键字实现提升迭代性能与效率

《C#使用yield关键字实现提升迭代性能与效率》yield关键字在C#中简化了数据迭代的方式,实现了按需生成数据,自动维护迭代状态,本文主要来聊聊如何使用yield关键字实现提升迭代性能与效率,感兴... 目录前言传统迭代和yield迭代方式对比yield延迟加载按需获取数据yield break显式示迭

Python实现高效地读写大型文件

《Python实现高效地读写大型文件》Python如何读写的是大型文件,有没有什么方法来提高效率呢,这篇文章就来和大家聊聊如何在Python中高效地读写大型文件,需要的可以了解下... 目录一、逐行读取大型文件二、分块读取大型文件三、使用 mmap 模块进行内存映射文件操作(适用于大文件)四、使用 pand

python实现pdf转word和excel的示例代码

《python实现pdf转word和excel的示例代码》本文主要介绍了python实现pdf转word和excel的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价... 目录一、引言二、python编程1,PDF转Word2,PDF转Excel三、前端页面效果展示总结一