Kafka分布式集群部署实战:跨越理论,直击生产环境部署难题与解决方案,性能调优、监控与管理策略大揭秘,轻松上手分布式消息中间件

本文主要是介绍Kafka分布式集群部署实战:跨越理论,直击生产环境部署难题与解决方案,性能调优、监控与管理策略大揭秘,轻松上手分布式消息中间件,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文介绍kafka的集群如何部署和安装,1-4章理论知识,第5章详解集群的部署,部署Kafka之前需要先部署好分布式的Zookeeper,不喜欢理论的可以直接看第5章,欢迎大家一起探讨技术!

Zookeeper集群部署参考文章:精通Zookeeper:详解分布式集群部署全程,掌握数据一致性、选举机制与集群容错能力-CSDN博客

关于Kafka的资料:

大数据技术之Kafka(最新版)资料+jar包+安装包+笔记+视频+代码集合,看完学会使用Kafka

关于Kafka进阶高手资料:

Kafka集群调优实战+分布式集群搭建,分布式集群搭建与调优实战,Kafka专家之路!课程内容全程实战,没有拖泥带水

Apache Kafka是一个开源的分布式消息系统,也是一个分布式流式计算平台。尽管它在流式计算方面有着强大功能,但在实际应用中,Kafka更多地被用作分布式消息队列。以下是对Kafka的详细解析:

一、Kafka的主要特点

  1. 高吞吐量:Kafka能够处理非常高的消息吞吐量,适用于大规模数据处理和实时数据流。
  2. 低延迟:Kafka具有较低的消息传递延迟,能够提供快速的消息传递服务。
  3. 可伸缩性:Kafka支持水平扩展,通过增加更多的节点来扩展处理能力和存储容量,保证系统的可靠性和性能。
  4. 持久性:Kafka使用磁盘存储消息,确保消息的持久性和可靠性,并支持消息的批量处理。
  5. 高可靠性:通过副本机制保证消息的可靠性,即使某些节点发生故障,也不会丢失消息。
  6. 分区:Kafka的消息被分成多个分区,每个分区可以在不同的服务器上进行写入和读取,提高了并发性能。
  7. 支持流处理:Kafka提供了强大的流处理功能,可以进行实时数据处理、转换和分析。
  8. 社区活跃:Kafka拥有庞大的开源社区支持,持续更新和改进,解决了许多实际场景中的数据处理问题。

二、Kafka的关键概念

  1. Topic:Kafka把收到的消息按Topic进行分类,可以理解为Topic是一种类别。
  2. Producer:消息生产者,即向Kafka broker发送消息的客户端。
  3. Consumer:消息消费者,即向Kafka broker取消息的客户端。消费者通过订阅Topic来消费消息。
  4. Consumer Group:消费者组,由多个Consumer组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组间互不影响。
  5. Partition:分区,是实现Kafka高吞吐量的关键。一个Topic可以分成多个Partition,每个Partition是一个有序的队列。
  6. Replica:副本,为保证集群中某个节点发生故障时,该节点上的Partition数据不丢失,且Kafka仍然可以继续工作,Kafka提供了副本机制。每个Partition都有若干个副本,其中一个作为Leader,其他作为Follower。Leader负责处理所有读写请求,Follower实时从Leader同步数据。

三、Kafka的应用场景

  1. 日志处理与分析:Kafka可以有效地从各个实例收集日志流,并与其他系统(如ElasticSearch、Kibana)结合,提供日志的索引、搜索和可视化。
  2. 实时点击流分析:收集系统指标进行监控和故障排除。与日志分析类似,但处理的是结构化数据。
  3. 更改数据捕获(CDC):将数据库更改流式传输到其他系统以进行复制或缓存/索引更新。
  4. 构建数据管道:使用Kafka从各种来源获取数据、应用处理规则,并将数据存储在仓库、数据湖或数据网格中。
  5. 微服务解耦通信:Kafka可以作为微服务之间的消息队列,实现服务的解耦和异步通信。
  6. 事件溯源:捕获一系列事件中状态的变化,并作为系统中的事实来源,用于重建状态或进行其他处理。

四、Kafka的优缺点

优点

  • 高吞吐量、低延迟。
  • 支持水平扩展和分区,提高并发性能。
  • 持久性高,数据不丢失。
  • 社区活跃,支持丰富。

缺点

  • 由于是批量发送,数据达不到真正的实时。
  • 不支持MQTT协议和物联网传感数据直接接入。
  • 只能保证一个分区内消息的有序性,无法实现全局消息有序。
  • 监控不完善,需要安装插件。
  • 可能会重复消费数据,需要额外的处理逻辑来确保数据的一致性。

五、集群部署

1、上传Kafka安装包

关于Kafka的资料和安装包+源码可以在这里下载

大数据技术之Kafka(2019新版)资料+jar包+安装包+笔记+视频+代码集合,看完学会使用Kafka

将Kafka的安装包上传到hadoop102机器下的/opt/software下

2、解压安装包

 tar -zxvf kafka_2.11-0.11.0.0.tgz -C /opt/module/

这个命令是用于在Linux或Unix-like系统中使用tar工具来解压一个名为kafka_2.11-0.11.0.0.tgz的tarball(tar归档文件,通常用于打包多个文件和目录)到指定的目录/opt/module/下。命令的各个部分意义如下:

  • tar:这是调用tar工具的命令。tar是一个在Unix和Unix-like系统中广泛使用的命令行程序,用于打包和解包文件。

  • -zxvf:这是传递给tar命令的选项,每个字母都代表一个不同的操作或行为。

    • z:表示通过gzip进行压缩或解压缩。这个选项告诉tar命令,它要处理的归档文件(在这个例子中是kafka_2.11-0.11.0.0.tgz)是用gzip压缩的。
    • x:表示解包或解压。这个选项告诉tar命令要执行的操作是解压归档文件。
    • v:表示在操作过程中显示详细信息。这个选项会让tar命令在执行时显示正在被解压的文件列表,便于用户了解解压进度。
    • f:表示后面跟随的是归档文件的名称。这个选项告诉tar命令,接下来的参数(即kafka_2.11-0.11.0.0.tgz)是要处理的归档文件的名称。
  • kafka_2.11-0.11.0.0.tgz:这是要解压的归档文件的名称。文件名中的kafka指的是Apache Kafka,一个分布式流处理平台;2.11指的是这个Kafka版本是编译来兼容Scala 2.11的;0.11.0.0是Kafka的版本号;.tgz.tar.gz的简写,表示这是一个通过gzip压缩的tar归档文件。

  • -C /opt/module/:这个选项指定了解压后的文件应该被放置的目录。-C选项后面跟着的/opt/module/是目标目录的路径。注意,-C选项在某些版本的tar中可能写作--directory=或者简写为-C,用于在解压之前改变当前工作目录到指定的目录。但是,在这个上下文中,-C实际上更准确地被理解为在解压时直接将内容解压到指定的目录,而不是先改变当前工作目录。不过,大多数用户(包括很多文档和教程)都使用-C来表示这个操作,尽管具体实现可能略有不同。

3、修改解压后的文件名称

mv kafka_2.11-0.11.0.0/ kafka

4、在/opt/module/kafka 目录下创建 logs 文件夹

mkdir logs

5、修改配置文件

进入到Kafka/config目录下

[atguigu@hadoop102 kafka]$ cd config/ 
[atguigu@hadoop102 config]$ vim server.properties

配置以下参数,这些参数原本配置文件中是存在是

#broker 的全局唯一编号,不能重复
broker.id=0
#删除 topic 功能
delete.topic.enable=true
#处理网络请求的线程数量 
num.network.threads=3
#用来处理磁盘 IO 的现成数量
num.io.threads=8
#发送套接字的缓冲区大小 
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小 
socket.request.max.bytes=104857600
#kafka 运行日志存放的路径 
log.dirs=/opt/module/kafka/logs
#topic 在当前 broker 上的分区个数 
num.partitions=1
#用来恢复和清理 data 下数据的线程数量 
num.recovery.threads.per.data.dir=1
#segment 文件保留的最长时间,超时将被删除 
log.retention.hours=168
#配置连接Zookeeper 集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181

6、配置环境变量

sudo vim /etc/profile.d/my_env.sh

配置以下内容

#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka 
export PATH=$PATH:$KAFKA_HOME/bin

7、分发安装包

[atguigu@hadoop102 module]$ xsync kafka/
注意:分发之后记得配置其他机器的环境变量
分别在 hadoop103 hadoop104 上修改配置文件 /opt/module/kafka/config/server.properties
中的 broker.id=1 broker.id=2
注: broker.id 不得重复

8、启动集群

依次在 hadoop102 hadoop103 hadoop104 节点上启动 kafka
注意:启动前确保集群中的zookeeper已经启动
zookeeper集群部署可以看这篇文章: 精通Zookeeper:详解分布式集群部署全程,掌握数据一致性、选举机制与集群容错能力-CSDN博客
jps查看进程

 三台服务器都有 QuorumPeerMain表示zookeeper集群已经启动

[atguigu@hadoop102 kafka]$ bin/kafka-server-start.sh -daemon
config/server.properties
[atguigu@hadoop103 kafka]$ bin/kafka-server-start.sh -daemon
config/server.properties
[atguigu@hadoop104 kafka]$ bin/kafka-server-start.sh -daemon
config/server.properties

这里需要使用 -daemon 指定刚才设置的配置文件config/server.properties

9、关闭集群

[atguigu@hadoop102 kafka]$ bin/kafka-server-stop.sh stop
[atguigu@hadoop103 kafka]$ bin/kafka-server-stop.sh stop
[atguigu@hadoop104 kafka]$ bin/kafka-server-stop.sh stop

10、kafka 群起脚本

for i in hadoop102 hadoop103 hadoop104
do
echo "========== $i ==========" 
ssh $i '/opt/module/kafka/bin/kafka-server-start.sh -daemon 
/opt/module/kafka/config/server.properties'
done

这篇关于Kafka分布式集群部署实战:跨越理论,直击生产环境部署难题与解决方案,性能调优、监控与管理策略大揭秘,轻松上手分布式消息中间件的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1115802

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd