大数据(4c)Kafka理论知识

2023-10-31 05:59
文章标签 数据 kafka 理论知识 4c

本文主要是介绍大数据(4c)Kafka理论知识,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

高吞吐的目录

  • 1、基础理论
    • 1.1、什么是消息队列
    • 1.2、消息队列的两种模式
    • 1.3、高可用原理
  • 2、Kafka概述
  • 3、主题和分区
  • 4、数据存储原理
  • 5、Kafka读写如何高效?
  • 6、生产数据的可靠性
    • 6.1、应答机制
    • 6.2、领导候选
    • 6.3、数据一致性
    • 6.4、容错机制
  • 附录

1、基础理论

1.1、什么是消息队列

  • Message Queue
  • 消息的传输过程中保存消息的容器
  • 应用场景:程序解耦、异步消息、流量削锋…

1.2、消息队列的两种模式

点对点模式(消费者主动拉取数据,拉取成功后删除队列上的数据)

一个消息 只能有一个消费者可以消费

发布/订阅模式(消费者消费数据之后,队列上的数据不会被马上清除)

1.3、高可用原理

  • High Availability
  • 目标:减少停工时间
  • 策略:消除单点故障

工作模式

2、Kafka概述

  • 基于发布/订阅模式分布式消息队列
  • 主用场景:大数据实时处理、流量削峰

架构图

英文名译名说明
Producer生产者生产消息
Consumer消费者消费消息
Consumer Group消费者组由多个Consumer组成
是逻辑上的一个订阅者
Broker经纪人一台Kafka服务器就是一个Broker
一个集群由多个Broker组成
一个Broker可以容纳多个topic的partition
Topic主题可以理解为一个存放消息的逻辑上的队列
一个topic可以分布到多个Broker
Partition分区一个topic可以分存多个partition
每个partition是一个有序的队列
Replica复制品数据副本
Leader首领对接生产者和消费者
Follower追随者实时同步leader的数据
leader故障时,某follower会成为新的leader

3、主题和分区

  • 主题是逻辑上的概念
  • 分区是物理上的概念,以文件夹的方式

一个主题下可以有多个分区;分区有序,主题不一定有序

消费者组是逻辑上的一个订阅者,由多个消费者组成

各个分区可以被消费者并行消费

多个消费者组可以订阅同一个主题
1个消费者可以消费多个分区
对于1个消费者组,1个分区 只能被 该消费者组内的1个消费者 消费

建议 某主题的分区数=订阅该主题的消费者组的消费者数

一台服务器有Broker,一个集群由多个Broker组成

一个Topic可以分布到多个Broker

4、数据存储原理

Kafka将 生产者发送的消息 暂存到硬盘

下面使用命令查看具体的文件夹和文件

1、把segment改小,使得容易产生大量segment

vi $KAFKA_HOME/config/server.properties
log.segment.bytes=102400

2、创建分区,两个副本,三个分区

kafka-topics.sh \
--zookeeper hadoop100:2181/kafka \
--create \
--replication-factor 2 \
--partitions 3 \
--topic topicA

3、生产数据(Kafka内置的生产者,可用于压测)

kafka-producer-perf-test.sh --topic topicA \
--num-records 4000 --record-size 1024 \
--producer-props bootstrap.servers=hadoop100:9092 --throughput -1
参数说明
--num-records写多少个数据
--record-size每个数据多大(单位:byte)
--producer-props指定数据写到哪个集群
--throughput写数据速率限制,-1表示不限

4、查看数据目录下名为topicA的主题

ls $KAFKA_HOME/logs | grep topicA
ssh hadoop101 'ls $KAFKA_HOME/logs | grep topicA'
ssh hadoop102 'ls $KAFKA_HOME/logs | grep topicA'

5、查看分区(文件夹)内的文件

ll topicA-1

6、查看索引文件以及偏移量(offset)

kafka-dump-log.sh --print-data-log --files 00000000000000000000.index

7、数据查找

5、Kafka读写如何高效?

  • 多分区并行
  • 顺序写磁盘
    顺序写 速度 远大于 随机写
  • 使用了page cache(译名:页高速缓冲存储器)
    在Linux读写文件时,page cache用于缓存文件的逻辑内容,从而加快对磁盘上映像和数据的访问
  • 零复制技术

6、生产数据的可靠性

6.1、应答机制

  • ACK
  • 全称:acknowledgement character
  • 译名:命令正确应答
  • 应答等级
    ack=0:Leader接收数据后 应答
    ack=1:Leader接收数据并写入后 应答
    ack=-1:Leader接收和写入数据,Follower同步数据 后应答

6.2、领导候选

  • ISR
  • 全称:in-sync replica set
  • leader同步到一定程度的follower
  • 长期没同步的follower将被踢出ISR
  • leader挂掉后就从ISR中选举新leader
kafka-topics.sh --describe --topic topicA --bootstrap-server hadoop100:9092

查看主题信息,如:分区数、领导者、追随者、Isr……

6.3、数据一致性

只能保证副本之间的数据一致性,并不能保证数据不丢失或不重复

  • LEO
    log end offset
    当前日志数据(副本)最后一个偏移量

  • HW
    high watermark
    所有副本的LEO中 最小的那一个

6.4、容错机制

容错等级语义说明
at most once数据最多一条数据可能会丢,但不会重复
at least one数据至少一条数据绝不会丢,但可能重复
exactly once数据有且只有一条数据不会丢,也不会重复

如何实现【exactly once】
1、ack=-1,实现数据不会丢
2、开启幂等性
3、给消息添加唯一标识【生产者ID、分区号、该分区的数据的偏移量】,据此防止数据重复
4、生产者不要挂(生产者挂掉重启后,生产者编号可能变)或 固定生产者编号

附录

en🔉cn
brokerˈbroʊkərn. 经纪人
acknowledgementəkˈnɑːlɪdʒməntn. 承认;确认;感谢
replicaˈreplɪkən. 复制品,仿制品;摹本
bootstrapˈbuːtstræpn. (靴筒后的)靴襻;[计] 引导程序;vt. 启动(电脑)
watermarkˈwɔːtərmɑːrkn. 水印;vt. 印水印;(water mark 两单词合体)
exactlyɪɡˈzæktliadv. 恰好地;精确地;正确地

这篇关于大数据(4c)Kafka理论知识的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/313305

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav