【KAFKA】Kafka集群搭建(安全认证SASL/PLAIN),并和springBoot整合

本文主要是介绍【KAFKA】Kafka集群搭建(安全认证SASL/PLAIN),并和springBoot整合,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Kafka集群搭建(安全认证SASL/PLAIN),并和springBoot整合

搭建三台机器的kafka集群。 用外置的zookeeper做配置中心管理。 为了不让配置中心也产生单点,所以我们需要先搭建一个三个节点的配置中心集群;

1 环境:

OS版本:        Centos7.4
kafka版本:    kafka_2.11-2.2.0
ZK版本:         zookeeper-3.4.14
JDK版本:         jdk_1.8

服务器列表(此处设置了域名):
192.168.0.85    gmg_server02
192.168.0.86    gmg_server03
192.168.0.90    gmg_server04

安装目录:
/home/programs/zookeeper
/home/programs/kafka
/home/programs/jdk

2 服务端设置

2.1 安装和配置zookeeper

请参照:https://blog.csdn.net/shgh_2004/article/details/89282066

2.2 安装和配置kafka

2.2.1 解压
tar -zxvf kafka_2.11-2.2.0.tgz -C /home/programs/kafka/
对于单机系统,解压好了即可直接运行zookeeper和kafka服务。

 2.2.2 修改配置文件
a) 配置kafka(server.properties)

vi conf/server.properties# 设置broker的唯一标识(集群唯一随便设置)。
broker.id=2 # 设置带SASL安全认证的服务监听(域名或者IP修改为机器的正式IP或者域名就好 其他照抄)
listeners=SASL_PLAINTEXT://gmg_server02:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.enabled.mechanisms=PLAIN
sasl.mechanism.inter.broker.protocol=PLAIN
authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer
allow.everyone.if.no.acl.found=true# 设置log的目录 (这个在清理掉topic的时候会有用)
log.dirs=/home/programs/kafka/data/logs# 连接的zookeeper 集群地址列表
zookeeper.connect=gmg_server01:2181,gmg_server02:2181,gmg_server03:2181

b) 创建JAAS配置文件(kafka的认证账户信息)

定义链接Kafka Broker时所需要的用户名密码及broker各个节点之间相互通信的用户名密码,这部分配置定义在KafkaServer节,文件如下:

touch config/kafka_server_jaas.conf
KafkaServer {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="admin"password="admin-shiguanghui"user_admin="admin-shiguanghui";
};

c) 配置KAFKA_OPTS环境变量

为KAFKA_OPTS设置启动参数。
export KAFKA_HEAP_OPTS="-Xmx2G -Xms2G"
增加如下:
export KAFKA_HEAP_OPTS="-Xmx2G -Xms2G -Djava.security.auth.login.config=/home/programs/kafka/config/kafka_server_jaas.conf"

2.3 启动服务

首先启动zookeeper机器。 然后轮流启动kafka集群。
/home/programs/kafka/bin/kafka-server-start.sh -daemon /home/programs/kafka/config/server.properties


3 客户端设置

这里的没有做kafka自带客户端的设置,主要演示一下应用程序客户端的设置。 我们是使用springboot的应用客户端。

3.1 项目中引入依赖:

<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency><groupId>org.springframework.kafka</groupId><artifactId>spring-kafka</artifactId>
</dependency>

3.2 在resources下面新建文件:kafka_client_jaas.conf

KafkaClient {org.apache.kafka.common.security.plain.PlainLoginModule requiredusername="admin"password="admin-shiguanghui";
};

3.3 application.yml的配置

spring:kafka:bootstrap-servers: gmg_server01:9092,gmg_server02:9092,gmg_server03:9092topic-name: test-topicconsumer:group-id: prd_group# earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费# latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据# none:topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset,则抛出异常auto-offset-reset: latestmax-poll-records: 100concurrency: 10# key/value的反序列化key-deserializer: org.apache.kafka.common.serialization.StringDeserializervalue-deserializer: org.apache.kafka.common.serialization.StringDeserializerproperties:sasl.mechanism: PLAINsecurity.protocol: SASL_PLAINTEXTconsumer-extra:# 是否批量处理batch-listener: trueproducer:# key/value的序列化key-serializer: org.apache.kafka.common.serialization.StringSerializervalue-serializer: org.apache.kafka.common.serialization.StringSerializerproperties:sasl.mechanism: PLAINsecurity.protocol: SASL_PLAINTEXT# 批量抓取batch-size: 4096# 缓存容量buffer-memory: 40960

3.5 程序启动类:

@SpringBootApplication
public class APIApplication extends SpringBootServletInitializer {static {// 这里可能会有坑。因为这种方式springboot无法读取jar包中配置文件。需要自行处理String config = ResourceUtils.getFile("classpath:kafka_client_jaas.conf").getAbsolutePath();System.setProperty("java.security.auth.login.config", config);}public static void main(String[] args) {SpringApplication.run(APIApplication.class, args);}
}

3.6 消息生产者

@Component
public class Sender {@Autowiredprivate KafkaTemplate<String, String> template;public void send(String msg) {this.template.sendDefault("test-msg", msg);System.out.println("发送消息:" + msg);}
}

3.6 消息消费者

@Component
public class Receiver {@KafkaListener(topics = {${spring.kafka.consumer.topic-name}}, groupId = "${spring.kafka.consumer.group-id}")public void receiveMessage(ConsumerRecord<String, String> record) {System.out.println("接收消息key = " + record.key() + "、value = " + record.value());}
}


3.7 controller 

@RestController
public class KafkaController {@Autowiredprivate Sender sender;@PostMapping("/{msg}")public String send(@PathVariable("msg") String msg) {sender.send(msg);return msg;}
}

 

这篇关于【KAFKA】Kafka集群搭建(安全认证SASL/PLAIN),并和springBoot整合的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/448148

相关文章

Spring事务传播机制最佳实践

《Spring事务传播机制最佳实践》Spring的事务传播机制为我们提供了优雅的解决方案,本文将带您深入理解这一机制,掌握不同场景下的最佳实践,感兴趣的朋友一起看看吧... 目录1. 什么是事务传播行为2. Spring支持的七种事务传播行为2.1 REQUIRED(默认)2.2 SUPPORTS2

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

Java进程异常故障定位及排查过程

《Java进程异常故障定位及排查过程》:本文主要介绍Java进程异常故障定位及排查过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、故障发现与初步判断1. 监控系统告警2. 日志初步分析二、核心排查工具与步骤1. 进程状态检查2. CPU 飙升问题3. 内存

java中新生代和老生代的关系说明

《java中新生代和老生代的关系说明》:本文主要介绍java中新生代和老生代的关系说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、内存区域划分新生代老年代二、对象生命周期与晋升流程三、新生代与老年代的协作机制1. 跨代引用处理2. 动态年龄判定3. 空间分

Java设计模式---迭代器模式(Iterator)解读

《Java设计模式---迭代器模式(Iterator)解读》:本文主要介绍Java设计模式---迭代器模式(Iterator),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,... 目录1、迭代器(Iterator)1.1、结构1.2、常用方法1.3、本质1、解耦集合与遍历逻辑2、统一

Java内存分配与JVM参数详解(推荐)

《Java内存分配与JVM参数详解(推荐)》本文详解JVM内存结构与参数调整,涵盖堆分代、元空间、GC选择及优化策略,帮助开发者提升性能、避免内存泄漏,本文给大家介绍Java内存分配与JVM参数详解,... 目录引言JVM内存结构JVM参数概述堆内存分配年轻代与老年代调整堆内存大小调整年轻代与老年代比例元空

深度解析Java DTO(最新推荐)

《深度解析JavaDTO(最新推荐)》DTO(DataTransferObject)是一种用于在不同层(如Controller层、Service层)之间传输数据的对象设计模式,其核心目的是封装数据,... 目录一、什么是DTO?DTO的核心特点:二、为什么需要DTO?(对比Entity)三、实际应用场景解析

Java 线程安全与 volatile与单例模式问题及解决方案

《Java线程安全与volatile与单例模式问题及解决方案》文章主要讲解线程安全问题的五个成因(调度随机、变量修改、非原子操作、内存可见性、指令重排序)及解决方案,强调使用volatile关键字... 目录什么是线程安全线程安全问题的产生与解决方案线程的调度是随机的多个线程对同一个变量进行修改线程的修改操

从原理到实战深入理解Java 断言assert

《从原理到实战深入理解Java断言assert》本文深入解析Java断言机制,涵盖语法、工作原理、启用方式及与异常的区别,推荐用于开发阶段的条件检查与状态验证,并强调生产环境应使用参数验证工具类替代... 目录深入理解 Java 断言(assert):从原理到实战引言:为什么需要断言?一、断言基础1.1 语

深度解析Java项目中包和包之间的联系

《深度解析Java项目中包和包之间的联系》文章浏览阅读850次,点赞13次,收藏8次。本文详细介绍了Java分层架构中的几个关键包:DTO、Controller、Service和Mapper。_jav... 目录前言一、各大包1.DTO1.1、DTO的核心用途1.2. DTO与实体类(Entity)的区别1