原理+实践|Exactly-once系列实践之KafkaToKafka

2023-11-23 08:59

本文主要是介绍原理+实践|Exactly-once系列实践之KafkaToKafka,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1886530353e5c510cebead2addbaa01d.png全网最全大数据面试提升手册!

推荐阅读:

  • 原理+实践|Flink-Exactly-Once Kafka2Redis一致性实践

文章目录
一、Kafka输入输出流工具类
二、统计字符个数案例
三、消费者消费kafka的事务数据
四、总结与可能出现的问题

一、Kafka输入输出流工具类

代码如下(示例):

//获取kafkaStream流public static <T> DataStream<T> getKafkaDataStream(ParameterTool parameterTool,Class<? extends DeserializationSchema> clazz,StreamExecutionEnvironment env) throws IllegalAccessException, InstantiationException {//加入到flink的环境全局配置中,后续可以通过上下文获取该工具类,总而得到想要的值env.getConfig().setGlobalJobParameters(parameterTool);//kafka配置项Properties properties = new Properties();properties.setProperty("bootstrap.servers", parameterTool.get("bootstrap.servers"));properties.setProperty("group.id",parameterTool.get("group.idsource"));properties.setProperty("auto.offset.reset",parameterTool.get("auto.offset.reset"));properties.setProperty("enable.auto.commit",parameterTool.get("enable.auto.commit", String.valueOf(false)));String topics = parameterTool.get("Consumertopics");//序列化类实例化DeserializationSchema<T> deserializationSchema = clazz.newInstance();FlinkKafkaConsumer<T> flinkKafkaConsumer = new FlinkKafkaConsumer<>(topics, deserializationSchema, properties);flinkKafkaConsumer.setStartFromEarliest();//开启kafka的offset与checkpoint绑定flinkKafkaConsumer.setCommitOffsetsOnCheckpoints(true);return env.addSource(flinkKafkaConsumer);}//获取kafka生产者通用方法/*** offsets.topic.replication.factor 用于配置offset记录的topic的partition的副本个数* transaction.state.log.replication.factor 事务主题的复制因子* transaction.state.log.min.isr 覆盖事务主题的min.insync.replicas配置** num.partitions 新建Topic时默认的分区数** default.replication.factor 自动创建topic时的默认副本的个数**** 注意:这些参数,设置得更高以确保高可用性!** 其中 default.replication.factor 是真正决定,topi的副本数量的* @param parameterTool* @param kafkaSerializationSchema* @param <T>* @return*/public static <T> FlinkKafkaProducer<T> getFlinkKafkaProducer(ParameterTool parameterTool,KafkaSerializationSchema<T> kafkaSerializationSchema){Properties properties = new Properties();properties.setProperty("bootstrap.servers", parameterTool.get("bootstrap.servers"));properties.setProperty("group.id",parameterTool.get("group.idsink"));
//        properties.setProperty("transaction.max.timeout.ms",parameterTool.get("transaction.max.timeout.ms"));properties.setProperty("transaction.timeout.ms",parameterTool.get("transaction.timeout.ms"));properties.setProperty("client.id", "flinkOutputTopicClient");String topics = parameterTool.get("Producetopice");return new FlinkKafkaProducer<T>(topics,kafkaSerializationSchema,properties, FlinkKafkaProducer.Semantic.EXACTLY_ONCE);}

注意点事项

一、消费者注意项

  1. flinkKafkaConsumer.setCommitOffsetsOnCheckpoints(true),将kafka自动提交offset关闭并且与flink的CheckPoint绑定

  2. bootstrap.servers kafka的broker host

  3. setStartFromEarliest()设置kafka的消息消费从最初位置开始

二、生产者注意项

  1. transaction.timeout.ms 默认情况下Kafka Broker 将transaction.max.timeout.ms设置为15分钟,我们需要将此值设置低于15分钟

  2. FlinkKafkaProducer.Semantic.EXACTLY_ONCE设置kafka为精确一次

二、统计字符个数案例

代码如下(示例):

public static void main(String[] args) throws Exception {//1.创建流式执行环境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//2.设置并行度env.setParallelism(4);//3.设置CK和状态后端CkAndStateBacked.setCheckPointAndStateBackend(env,"FS");//4.获取kafkaStream流InputStream kafkaPropertiesStream = KafkaToKafkaExacitly.class.getClassLoader().getResourceAsStream("kafka.properties");ParameterTool parameterTool=ParameterTool.fromPropertiesFile(kafkaPropertiesStream);//将配置流放到全局flink运行时环境env.getConfig().setGlobalJobParameters(parameterTool);SimpleStringSchema simpleStringSchema = new SimpleStringSchema();Class<? extends SimpleStringSchema> stringSchemaClass = simpleStringSchema.getClass();DataStream<String> kafkaDataStream = KafkaUtil.getKafkaDataStream(parameterTool, stringSchemaClass, env);System.out.println("==================================================");kafkaDataStream.print();//5.map包装成value,1SingleOutputStreamOperator<Tuple2<String, Integer>> tupleStream = kafkaDataStream.map(new MapFunction<String, Tuple2<String, Integer>>() {@Overridepublic Tuple2<String, Integer> map(String value) throws Exception {if("error".equals(value)){throw new RuntimeException("发生异常!!!");}return new Tuple2<>(value, 1);}});tupleStream.print();//6.按照value进行分组,并且统计value的个数SingleOutputStreamOperator<Tuple2<String, Integer>> reduceStream = tupleStream.keyBy(new KeySelector<Tuple2<String, Integer>, String>() {@Overridepublic String getKey(Tuple2<String, Integer> value) throws Exception {return value.f0;}}).reduce(new ReduceFunction<Tuple2<String, Integer>>() {@Overridepublic Tuple2<String, Integer> reduce(Tuple2<String, Integer> value1, Tuple2<String, Integer> value2) throws Exception {return new Tuple2<>(value1.f0, value1.f1 + value2.f1);}});System.out.println("=====================================================");reduceStream.print();//7.将数据输出到kafkaFlinkKafkaProducer<Tuple2<String, Integer>> flinkKafkaProducer = KafkaUtil.getFlinkKafkaProducer(parameterTool, new KafkaSerializationSchema<Tuple2<String, Integer>>() {@Overridepublic void open(SerializationSchema.InitializationContext context) throws Exception {System.out.println("=========正在向KafkaProduce输出数据!!!=============");}@Overridepublic ProducerRecord<byte[], byte[]> serialize(Tuple2<String, Integer> element, @Nullable Long timestamp) {String producetopics = parameterTool.get("Producetopice");String result = element.toString();return new ProducerRecord<byte[], byte[]>(producetopics, result.getBytes(StandardCharsets.UTF_8));}});reduceStream.addSink(flinkKafkaProducer).name("kafkasinktest").uid("kafkasink");//任务执行env.execute("KafkaToKafkaTest");}

注意事项:
这里使用的是本地FSstateBackend,注意你的路径的设置,以hdfs://或者file://为地址标识符,否则Flink的文件系统将无法识别。

三、消费者消费kafka的事务数据

ublic static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();Properties sourceProperties = new Properties();sourceProperties.setProperty("bootstrap.servers", "*****");sourceProperties.setProperty("group.id", "****");//端到端一致性:消费数据时需要配置isolation.level=read_committed(默认值为read_uncommitted)sourceProperties.put("isolation.level", "read_committed");FlinkKafkaConsumer<String> ConsumerKafka = new FlinkKafkaConsumer<>("*****", new SimpleStringSchema(), sourceProperties);ConsumerKafka.setStartFromEarliest();DataStreamSource<String> dataStreamSource = env.addSource(ConsumerKafka);dataStreamSource.print();env.execute();}

isolation.level这里设置为read_committed(默认为read_uncommitted) 这里可以看到以你CheckPoint设置的时间,来批量展示kafka生产者的消息。

四、总结与可能出现的问题

以上是flink 实现kafka的精确一次的测试例子,这里还有一点要注意,就是小伙伴们的kafka的配置里面。

offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
default.replication.factor=1

这四个参数里面default.replication.factor是你kafka真正每个topic的副本数量,但是在开启事务也就是flink的addsink的时候会默认继承两阶段提交的方式,这里transaction.state.log.replication.factor一定要大于或者等于transaction.state.log.min.isr,否则你的kafka集群不满足事务副本复制的基本属性,会一直不成功,那么你的CheckPoint就会超时过期,从而导致任务的整体失败。

kafka集群第一次有消费者消费消息时会自动创建 __consumer_offsets,它的副本因子受 offsets.topic.replication.factor 参数的约束,默认值为3(注意:该参数的使用限制在0.11.0.0版本发生变化),分区数可以通过 offsets.topic.num.partitions 参数设置,默认值为50,在开启事务性的情况下就会首先会获得一个全局的TransactionCoordinator id和transactional producer并且生成唯一的序列号等 类似于一下的例子来唯一标识当前事务的消息对应的offset,以及标识。

[2022-03-24 21:07:40,022] INFO [TransactionCoordinator id=0] Initialized transactionalId Keyed Reduce -> (Sink: Print to Std. Out, Sink: kafkasinktest)-b0c5e26be6392399cc3c8a38581a81c2-8 with producerId 11101 and producer epoch 8 on partition __transaction_state-18 (kafka.coordinator.transaction.TransactionCoordinator)

当flink任务出现异常的情况下,kafka会把以及提交但是未标记可以消费的数据直接销毁,或者正常的情况下,会正式提交(本质是修改消息的标志位),之后对于消费者在开启isolation.level的时候就可以读取以及标记为可以读取的message。

如果这个文章对你有帮助,不要忘记 「在看」 「点赞」 「收藏」 三连啊喂!

714cd7647fc638997cb45c1665fe2866.png

c2178796715d446702bee58109e41f47.jpeg

2022年全网首发|大数据专家级技能模型与学习指南(胜天半子篇)

互联网最坏的时代可能真的来了

我在B站读大学,大数据专业

我们在学习Flink的时候,到底在学习什么?

193篇文章暴揍Flink,这个合集你需要关注一下

Flink生产环境TOP难题与优化,阿里巴巴藏经阁YYDS

Flink CDC我吃定了耶稣也留不住他!| Flink CDC线上问题小盘点

我们在学习Spark的时候,到底在学习什么?

在所有Spark模块中,我愿称SparkSQL为最强!

硬刚Hive | 4万字基础调优面试小总结

数据治理方法论和实践小百科全书

标签体系下的用户画像建设小指南

4万字长文 | ClickHouse基础&实践&调优全视角解析

【面试&个人成长】2021年过半,社招和校招的经验之谈

大数据方向另一个十年开启 |《硬刚系列》第一版完结

我写过的关于成长/面试/职场进阶的文章

当我们在学习Hive的时候在学习什么?「硬刚Hive续集」

这篇关于原理+实践|Exactly-once系列实践之KafkaToKafka的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/416802

相关文章

Java调用DeepSeek API的最佳实践及详细代码示例

《Java调用DeepSeekAPI的最佳实践及详细代码示例》:本文主要介绍如何使用Java调用DeepSeekAPI,包括获取API密钥、添加HTTP客户端依赖、创建HTTP请求、处理响应、... 目录1. 获取API密钥2. 添加HTTP客户端依赖3. 创建HTTP请求4. 处理响应5. 错误处理6.

golang内存对齐的项目实践

《golang内存对齐的项目实践》本文主要介绍了golang内存对齐的项目实践,内存对齐不仅有助于提高内存访问效率,还确保了与硬件接口的兼容性,是Go语言编程中不可忽视的重要优化手段,下面就来介绍一下... 目录一、结构体中的字段顺序与内存对齐二、内存对齐的原理与规则三、调整结构体字段顺序优化内存对齐四、内

C++实现封装的顺序表的操作与实践

《C++实现封装的顺序表的操作与实践》在程序设计中,顺序表是一种常见的线性数据结构,通常用于存储具有固定顺序的元素,与链表不同,顺序表中的元素是连续存储的,因此访问速度较快,但插入和删除操作的效率可能... 目录一、顺序表的基本概念二、顺序表类的设计1. 顺序表类的成员变量2. 构造函数和析构函数三、顺序表

python实现简易SSL的项目实践

《python实现简易SSL的项目实践》本文主要介绍了python实现简易SSL的项目实践,包括CA.py、server.py和client.py三个模块,文中通过示例代码介绍的非常详细,对大家的学习... 目录运行环境运行前准备程序实现与流程说明运行截图代码CA.pyclient.pyserver.py参

使用C++实现单链表的操作与实践

《使用C++实现单链表的操作与实践》在程序设计中,链表是一种常见的数据结构,特别是在动态数据管理、频繁插入和删除元素的场景中,链表相比于数组,具有更高的灵活性和高效性,尤其是在需要频繁修改数据结构的应... 目录一、单链表的基本概念二、单链表类的设计1. 节点的定义2. 链表的类定义三、单链表的操作实现四、

MySQL中的MVCC底层原理解读

《MySQL中的MVCC底层原理解读》本文详细介绍了MySQL中的多版本并发控制(MVCC)机制,包括版本链、ReadView以及在不同事务隔离级别下MVCC的工作原理,通过一个具体的示例演示了在可重... 目录简介ReadView版本链演示过程总结简介MVCC(Multi-Version Concurr

Spring Boot统一异常拦截实践指南(最新推荐)

《SpringBoot统一异常拦截实践指南(最新推荐)》本文介绍了SpringBoot中统一异常处理的重要性及实现方案,包括使用`@ControllerAdvice`和`@ExceptionHand... 目录Spring Boot统一异常拦截实践指南一、为什么需要统一异常处理二、核心实现方案1. 基础组件

SpringBoot项目中Maven剔除无用Jar引用的最佳实践

《SpringBoot项目中Maven剔除无用Jar引用的最佳实践》在SpringBoot项目开发中,Maven是最常用的构建工具之一,通过Maven,我们可以轻松地管理项目所需的依赖,而,... 目录1、引言2、Maven 依赖管理的基础概念2.1 什么是 Maven 依赖2.2 Maven 的依赖传递机

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

在C#中获取端口号与系统信息的高效实践

《在C#中获取端口号与系统信息的高效实践》在现代软件开发中,尤其是系统管理、运维、监控和性能优化等场景中,了解计算机硬件和网络的状态至关重要,C#作为一种广泛应用的编程语言,提供了丰富的API来帮助开... 目录引言1. 获取端口号信息1.1 获取活动的 TCP 和 UDP 连接说明:应用场景:2. 获取硬