SpringBoot集成Kafka之SASL_SSL

2024-04-15 14:20

本文主要是介绍SpringBoot集成Kafka之SASL_SSL,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

系列文章目录


文章目录

  • 系列文章目录
  • 前言


前言

前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站,这篇文章男女通用,看懂了就去分享给你的码吧。
在这里插入图片描述


Kafka 是一个由 LinkedIn 开发的分布式消息系统,它于2011年年初开源,现在由著名的 Apache 基金会维护与开发。 Kafka 使用 Scala 实现,被用作 LinkedIn 的活动流和运营数据处理的管道,现在也被诸多互联网企业广泛地用作数据流管道和消息系统, Kafka 是基于消息发布﹣订阅模式实现的消息系统。
在这里插入图片描述
Win安装:Kafka安装Windows版 - Java小强技术博客 (javacui.com)

SpringBoot集成:SpringBoot集成Kafka - Java小强技术博客 (javacui.com)

由于公司使用时,必须要求Prodcuer&Consumer must connect to Kafka via SASL_SSL,因为进行了相关集成的编码,进行记录。

首先之前Spring的配置文件我们就不需要了,为了测试方便先编码到代码中,手续可以手动指定到配置文件中。

这里需要IO包,来操作JKS文件,看其是否存在,因此POM需要引入

<dependency><groupId>commons-io</groupId><artifactId>commons-io</artifactId><version>2.11.0</version>
</dependency>

然后消息监听类,需要改造下,首先指定一个ID,然后指定为手动启动

package com.example.springboot.listener;import com.alibaba.fastjson.JSON;
import com.example.springboot.model.Blog;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;@Component
public class KafkaMessListener {private static final String messTopic = "test";@KafkaListener(id="KafkaMessListener", topics = messTopic, groupId = "javagroup", autoStartup = "false")public void messListener(Blog blog) {System.out.println("消费端 收到消息:" + JSON.toJSONString(blog));}
}

编写消息提供者Producer配置类

package com.example.springboot.config;import lombok.extern.slf4j.Slf4j;
import org.apache.commons.io.FileUtils;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.config.SaslConfigs;
import org.apache.kafka.common.config.SslConfigs;
import org.springframework.boot.system.ApplicationHome;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;import java.io.File;
import java.io.IOException;
import java.io.InputStream;
import java.util.HashMap;
import java.util.Map;
import java.util.Objects;/*** Kafka服务端配置*/
@Slf4j
@Configuration
public class KafkaProducerConfig {@Beanpublic KafkaTemplate<String, String> kafkaTemplate() {return new KafkaTemplate<>(producerFactory());}/*** the producer factory config*/@Beanpublic ProducerFactory<String, String> producerFactory() {Map<String, Object> props = new HashMap();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9002");props.put(ProducerConfig.ACKS_CONFIG, "all");props.put(ProducerConfig.RETRIES_CONFIG, 3);props.put(ProducerConfig.BATCH_SIZE_CONFIG, 106384);props.put(ProducerConfig.LINGER_MS_CONFIG, 1);props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.springframework.kafka.support.serializer.JsonSerializer");props.put("security.protocol", "SASL_SSL");props.put(SaslConfigs.SASL_MECHANISM, "SCRAM-SHA-512");//打包成jar后,无法找到文件的解决方法(复制jar包里的文件,到文件目录里)ApplicationHome applicationHome = new ApplicationHome(KafkaProducerConfig.class);//项目打包成jar包所在的根路径String rootPath = applicationHome.getSource().getParentFile().toString();String configFilePath = rootPath + "\\client_truststore.jks";log.info("证书文件地址:" + configFilePath);File configFile = new File(configFilePath);if (!configFile.exists()) {try {//获取类路径下的指定文件流  (项目目录下的:  /resource/client_truststore.jks)InputStream in = this.getClass().getClassLoader().getResourceAsStream("client_truststore.jks");FileUtils.copyInputStreamToFile(Objects.requireNonNull(in, "client_truststore.jks文件找不到"), configFile);} catch (IOException e) {throw new IllegalArgumentException("client_truststore.jks文件找不到->" + e.getMessage());}}props.put(SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG, configFilePath);props.put(SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG, "Abc123");//注意passwod结尾的分号一定不要漏props.put(SaslConfigs.SASL_JAAS_CONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username='YouName' password='YouPass';");return new DefaultKafkaProducerFactory<String, String>(props);}}

这了之前在Spring中配置的属性,我们都编码在代码里面了,特别注意的是对于JKS文件的目录指定,因为SpringBoot程序最后都是打成Jar包的,因此需要上述方式来指定JKS文件位置。

然后我们编码消息监听者的配置类,因为我们已经指定了监听程序手动启动,因此配置类中需要编码手工开启某监听的启动。

package com.example.springboot.config;import com.example.springboot.listener.KafkaMessListener;
import lombok.extern.slf4j.Slf4j;
import org.apache.commons.io.FileUtils;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.config.SaslConfigs;
import org.apache.kafka.common.config.SslConfigs;
import org.springframework.boot.ApplicationRunner;
import org.springframework.boot.system.ApplicationHome;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerEndpointRegistry;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.listener.MessageListenerContainer;
import org.springframework.kafka.support.serializer.JsonDeserializer;import java.io.File;
import java.io.IOException;
import java.io.InputStream;
import java.util.HashMap;
import java.util.Map;
import java.util.Objects;/*** Kafka消费端配置*/
@Configuration
@EnableKafka
@Slf4j
public class KafkaConsumerConfig {@Beanpublic ApplicationRunner runner(KafkaListenerEndpointRegistry registry) {return args -> {MessageListenerContainer kafkaMessListener = registry.getListenerContainer("KafkaMessListener");kafkaMessListener.start();};}/*** 配置监听,将消费工厂信息配置进去*/@Beanpublic ConcurrentKafkaListenerContainerFactory<Integer, String> kafkaListenerContainerFactory() {ConcurrentKafkaListenerContainerFactory<Integer, String> factory = new ConcurrentKafkaListenerContainerFactory<Integer, String>();factory.setConsumerFactory(consumerFactory());return factory;}/*** 消费 消费工厂*/@Beanpublic ConsumerFactory<Integer, String> consumerFactory() {return new DefaultKafkaConsumerFactory<Integer, String>(consumerConfigs());}/*** 消费配置*/public Map<String, Object> consumerConfigs() {Map<String, Object> props = new HashMap();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "127.0.0.1:9002");props.put(ConsumerConfig.GROUP_ID_CONFIG, "YouGroup_ID");props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");// earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费// latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据// none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "latest");props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "30000");props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.springframework.kafka.support.serializer.JsonDeserializer");props.put(JsonDeserializer.TRUSTED_PACKAGES, "*"); // 信任所有包可以序列化props.put("security.protocol", "SASL_SSL");props.put(SaslConfigs.SASL_MECHANISM, "SCRAM-SHA-512");//打包成jar后,无法找到文件的解决方法(复制jar包里的文件,到文件目录里)ApplicationHome applicationHome = new ApplicationHome(KafkaConsumerConfig.class);//项目打包成jar包所在的根路径String rootPath = applicationHome.getSource().getParentFile().toString();String configFilePath = rootPath + "\\client_truststore.jks";log.info("证书文件地址:" + configFilePath);File configFile = new File(configFilePath);if (!configFile.exists()) {try {//获取类路径下的指定文件流  (项目目录下的:  /resource/client_truststore.jks)InputStream in = this.getClass().getClassLoader().getResourceAsStream("client_truststore.jks");FileUtils.copyInputStreamToFile(Objects.requireNonNull(in, "client_truststore.jks文件找不到"), configFile);} catch (IOException e) {throw new IllegalArgumentException("client_truststore.jks文件找不到->" + e.getMessage());}}props.put(SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG, configFilePath);props.put(SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG, "Abc123");//注意passwod结尾的分号一定不要漏props.put(SaslConfigs.SASL_JAAS_CONFIG, "org.apache.kafka.common.security.scram.ScramLoginModule required username='YouName' password='YouPass';");return props;}
}

如上可以手工启动消息开始处理消息。

这篇关于SpringBoot集成Kafka之SASL_SSL的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/906059

相关文章

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

Java中String字符串使用避坑指南

《Java中String字符串使用避坑指南》Java中的String字符串是我们日常编程中用得最多的类之一,看似简单的String使用,却隐藏着不少“坑”,如果不注意,可能会导致性能问题、意外的错误容... 目录8个避坑点如下:1. 字符串的不可变性:每次修改都创建新对象2. 使用 == 比较字符串,陷阱满

Java判断多个时间段是否重合的方法小结

《Java判断多个时间段是否重合的方法小结》这篇文章主要为大家详细介绍了Java中判断多个时间段是否重合的方法,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录判断多个时间段是否有间隔判断时间段集合是否与某时间段重合判断多个时间段是否有间隔实体类内容public class D

IDEA编译报错“java: 常量字符串过长”的原因及解决方法

《IDEA编译报错“java:常量字符串过长”的原因及解决方法》今天在开发过程中,由于尝试将一个文件的Base64字符串设置为常量,结果导致IDEA编译的时候出现了如下报错java:常量字符串过长,... 目录一、问题描述二、问题原因2.1 理论角度2.2 源码角度三、解决方案解决方案①:StringBui

Java覆盖第三方jar包中的某一个类的实现方法

《Java覆盖第三方jar包中的某一个类的实现方法》在我们日常的开发中,经常需要使用第三方的jar包,有时候我们会发现第三方的jar包中的某一个类有问题,或者我们需要定制化修改其中的逻辑,那么应该如何... 目录一、需求描述二、示例描述三、操作步骤四、验证结果五、实现原理一、需求描述需求描述如下:需要在

Debezium 与 Apache Kafka 的集成方式步骤详解

《Debezium与ApacheKafka的集成方式步骤详解》本文详细介绍了如何将Debezium与ApacheKafka集成,包括集成概述、步骤、注意事项等,通过KafkaConnect,D... 目录一、集成概述二、集成步骤1. 准备 Kafka 环境2. 配置 Kafka Connect3. 安装 D

Java中ArrayList和LinkedList有什么区别举例详解

《Java中ArrayList和LinkedList有什么区别举例详解》:本文主要介绍Java中ArrayList和LinkedList区别的相关资料,包括数据结构特性、核心操作性能、内存与GC影... 目录一、底层数据结构二、核心操作性能对比三、内存与 GC 影响四、扩容机制五、线程安全与并发方案六、工程

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

Java调用DeepSeek API的最佳实践及详细代码示例

《Java调用DeepSeekAPI的最佳实践及详细代码示例》:本文主要介绍如何使用Java调用DeepSeekAPI,包括获取API密钥、添加HTTP客户端依赖、创建HTTP请求、处理响应、... 目录1. 获取API密钥2. 添加HTTP客户端依赖3. 创建HTTP请求4. 处理响应5. 错误处理6.