详解 HBase 的架构和基本原理

2024-06-17 16:20

本文主要是介绍详解 HBase 的架构和基本原理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、基本架构

在这里插入图片描述

  • StoreFile:保存实际数据的物理文件,StoreFile 以 HFile 的格式 (KV) 存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的
  • MemStore:写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile
  • WAL:由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建

二、写流程原理

HBase 的读操作比写操作慢,且读写流程没有 master 参与

在这里插入图片描述

  • 老版本:Zookeeper 中存储的是 -root- 表的位置信息,-root- 表存储的 meta 表的位置信息(防止 meta 表进行切分)
  • Client 先访问 Zookeeper,获取 hbase:meta 表位于哪个 Region Server
  • 访问对应的 Region Server,获取 hbase:meta 表数据,根据写请求的 namespace:table/rowkey 信息查询出目标数据位于哪个 Region Server 中的哪个 Region 中,并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次快速访问
  • 与目标表所在的 Region Server 进行通讯
  • 将写请求命令顺序写入(追加)到内存的 WAL,此时 wal 没有同步到 HDFS
  • 将数据写入对应的 MemStore,数据会在 MemStore 进行排序
  • 同步 wal 到 HDFS,若失败则回滚清空 MemStore 写入的数据
  • 向客户端发送 ack,此时的写请求已经完成
  • 等达到 MemStore 的刷写时机后,将数据刷写到 HFile

三、MemStore Flush

在这里插入图片描述

  • MemStore Flush:刷写,将 Region 中存储在内存中的数据刷写到 HDFS 的磁盘中
  • Flush 时机:
    • RegionServer 级别:
      • 当 RegionServer 中 memstore 的总大小达到 javaHeapSize × hbase.regionserver.global.memstore.size(默认 0.4) × hbase.regionserver.global.memstore.size.lower.limit(默认 0.95) 时,所有 region 会按照其所有 memstore 的大小顺序 (由大到小) 依次进行刷写。直到 RegionServer 中所有 memstore 的总大小减小到上述值以下;当 RegionServer 中 memstore 的总大小达到javaHeapsize × hbase.regionserver.global.memstore.size 时,会停止继续往所有的 memstore 写数据操作
      • 当 memstore 中最后一条数据的写入时间达到hbase.regionserver.optionalcacheflushinterval(默认 1h) 的值时,触发 memstore flush
      • 当 WAL 文件的数量超过 hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减小到 hbase.regionserver.max.log 以下 (该属性名已经废弃,现无需手动设置,最大值为 32),该参数用于防止生产上内存配置过大导致刷写时数据积累过大
    • Region 级别:
      • 当某个 region 的 memstore 的大小达到了 hbase.hregion.memstore.flush.size(默认 128M) 时,这个 region 的所有 memstore 都会刷写
      • 当某个 region 的 memstore 的大小达到了 hbase.hregion.memstore.flush.size(默认 128M) × hbase.hregion.memstore.block.multiplier(默认 4)时,会停止继续往该 memstore 写数据

四、读流程原理

在这里插入图片描述

  • Client 先访问 Zookeeper,获取 hbase:meta 表位于哪个 Region Server
  • 访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey 信息查询出目标数据位于哪个 Region Server 中的哪个 Region 中,并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问
  • 与目标 Region Server 进行通讯
  • 分别在 BlockCache (读缓存),MemStore 和 StoreFile (HFile) 中查询目标数据,并将查到的所有数据进行合并 (merge)。此处所有数据是指同一条数据的不同版本 (timestamp) 或者不同的类型 (Put/Delete)
  • 将从 StoreFile 中查询到的数据块 (Block,HFile 数据存储单元,默认大小为 64KB) 缓存到 BlockCache
  • 将合并后 timestamp 最大的数据返回给客户端

五、StoreFile Compaction

在这里插入图片描述

  • 背景:由于 memstore 每次刷写都会生成一个新的 HFile,且同一个字段的不同版本 (timestamp) 和不同类型 (Put/Delete) 有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile
  • 为了减少 HFile 的个数,以及清理掉过期和删除的数据,HBase 会进行 StoreFile Compaction
  • StoreFile Compaction 分为两种:
    • Minor Compaction:会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但不会清理过期和删除的数据,shell 命令为 compact
    • Major Compaction:会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉过期和删除的数据,shell 命令为 major_compact
  • Major Compaction 触发条件:
    • HFile 存储时长达到 hbase.hregion.majorcompaction(默认 7 天) 的值时自动进行 Major Compaction,但生产上一般会关闭 (设置为 0)
    • 当一个 store 中的 hfile 个数达到或超过 hbase.hstore.compactionThreshold(默认 3) 的值时自动进行 Major Compaction,或手动执行 compact 命令时也进行 Major Compaction

六、数据真正删除

  • 触发数据删除的条件:MemStore Flush 和 Major Compaction
  • 当同一个字段的不同版本数据都在内存中, MemStore Flush 会删除版本小的数据,只将最大版本的数据刷写到磁盘;当同一个字段的不同类型数据都在内存中, MemStore Flush 只会删除 put 类型的数据 (delete 类型可能还要限制磁盘中的同字段数据);当同一个字段的不同版本数据在不同的文件,此时 MemStore Flush 不会删除数据
  • Major Compaction 会删除需要保留的版本数之外的所有过时版本和 delete 类型的数据

七、Region Split

在这里插入图片描述

  • 默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入增加,Region 会触发自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server
  • Region Split 触发时机:
    • 0.94 版本之前:当 1 个 region 中的某个 Store 下所有 StoreFile 的总大小超过 hbase.hregion.max.filesize(默认 10G),该 Region 就会进行拆分
    • 0.94 版本之后:当 1 个 region 中的某个 Store 下所有 StoreFile 的总大小超过 min(R^2 × hbase.hregion.memstore.flush.size, hbase.hregion.max.filesize), 该 Region 就会进行拆分,其中 R 为当前 Region Server 中属于该 Table 的 region 个数
  • 自动切分会造成数据倾斜,产生数据热点问题,在生产上一般不使用,而是在建表时先进行预分区,后续插入数据时轮询的插入到不同的分区
  • 官方建议使用一个列族,避免切分全局 flush 时产生大量小文件

这篇关于详解 HBase 的架构和基本原理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1069940

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

mybatis的整体架构

mybatis的整体架构分为三层: 1.基础支持层 该层包括:数据源模块、事务管理模块、缓存模块、Binding模块、反射模块、类型转换模块、日志模块、资源加载模块、解析器模块 2.核心处理层 该层包括:配置解析、参数映射、SQL解析、SQL执行、结果集映射、插件 3.接口层 该层包括:SqlSession 基础支持层 该层保护mybatis的基础模块,它们为核心处理层提供了良好的支撑。

百度/小米/滴滴/京东,中台架构比较

小米中台建设实践 01 小米的三大中台建设:业务+数据+技术 业务中台--从业务说起 在中台建设中,需要规范化的服务接口、一致整合化的数据、容器化的技术组件以及弹性的基础设施。并结合业务情况,判定是否真的需要中台。 小米参考了业界优秀的案例包括移动中台、数据中台、业务中台、技术中台等,再结合其业务发展历程及业务现状,整理了中台架构的核心方法论,一是企业如何共享服务,二是如何为业务提供便利。

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

6.1.数据结构-c/c++堆详解下篇(堆排序,TopK问题)

上篇:6.1.数据结构-c/c++模拟实现堆上篇(向下,上调整算法,建堆,增删数据)-CSDN博客 本章重点 1.使用堆来完成堆排序 2.使用堆解决TopK问题 目录 一.堆排序 1.1 思路 1.2 代码 1.3 简单测试 二.TopK问题 2.1 思路(求最小): 2.2 C语言代码(手写堆) 2.3 C++代码(使用优先级队列 priority_queue)

K8S(Kubernetes)开源的容器编排平台安装步骤详解

K8S(Kubernetes)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化应用程序。以下是K8S容器编排平台的安装步骤、使用方式及特点的概述: 安装步骤: 安装Docker:K8S需要基于Docker来运行容器化应用程序。首先要在所有节点上安装Docker引擎。 安装Kubernetes Master:在集群中选择一台主机作为Master节点,安装K8S的控制平面组件,如AP

系统架构设计师: 信息安全技术

简简单单 Online zuozuo: 简简单单 Online zuozuo 简简单单 Online zuozuo 简简单单 Online zuozuo 简简单单 Online zuozuo :本心、输入输出、结果 简简单单 Online zuozuo : 文章目录 系统架构设计师: 信息安全技术前言信息安全的基本要素:信息安全的范围:安全措施的目标:访问控制技术要素:访问控制包括:等保

嵌入式Openharmony系统构建与启动详解

大家好,今天主要给大家分享一下,如何构建Openharmony子系统以及系统的启动过程分解。 第一:OpenHarmony系统构建      首先熟悉一下,构建系统是一种自动化处理工具的集合,通过将源代码文件进行一系列处理,最终生成和用户可以使用的目标文件。这里的目标文件包括静态链接库文件、动态链接库文件、可执行文件、脚本文件、配置文件等。      我们在编写hellowor

LabVIEW FIFO详解

在LabVIEW的FPGA开发中,FIFO(先入先出队列)是常用的数据传输机制。通过配置FIFO的属性,工程师可以在FPGA和主机之间,或不同FPGA VIs之间进行高效的数据传输。根据具体需求,FIFO有多种类型与实现方式,包括目标范围内FIFO(Target-Scoped)、DMA FIFO以及点对点流(Peer-to-Peer)。 FIFO类型 **目标范围FIFO(Target-Sc

019、JOptionPane类的常用静态方法详解

目录 JOptionPane类的常用静态方法详解 1. showInputDialog()方法 1.1基本用法 1.2带有默认值的输入框 1.3带有选项的输入对话框 1.4自定义图标的输入对话框 2. showConfirmDialog()方法 2.1基本用法 2.2自定义按钮和图标 2.3带有自定义组件的确认对话框 3. showMessageDialog()方法 3.1