你一定爱读的极简数据平台史,从数据仓库、数据湖到湖仓一体

2023-11-03 07:41

本文主要是介绍你一定爱读的极简数据平台史,从数据仓库、数据湖到湖仓一体,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述

1. 写在前面

我们身处一个大数据时代,企业的数据量爆炸式增长。如何应对海量数据存储和处理的挑战,建设好数据平台,对一个企业来说是很关键的问题。从数据仓库、数据湖,到现在的湖仓一体,业界建设数据平台的新方法和新技术层出不穷。

理解这些方法和技术背后隐藏的演进脉路、关键问题、核心技术原理,可以帮助企业更好地建设数据平台。这也是百度智能云推出数据湖系列内容的初衷。

本系列文章将包含几个部分:
本篇将作为数据湖整个系列的开篇,为大家介绍数据平台技术的历史和发展过程中遇到的一些关键技术问题。

后续内容将分为两大主题,从存储和计算的两个角度出发介绍数据平台中的核心技术原理和最佳实践,以及百度智能云对这些问题的思考。

2. 数据的价值

“Data is the new oil.” — Clive Humby, 2006

Clive Humby在 2006 年说出这句 “数据是新的石油” 后,迅速成为大家的共识。这哥们一生的轨迹是大数据时代最好的注脚,他最早是一位数学家,后来和妻子联合创建了一家数据公司,再后来成立了专注于数据领域的投资基金。说这句话的时候,Clive Humby 正在向资本市场卖力地推销他和妻子创建的公司。资本市场喜欢这样简单有力的金句,他的公司在 5 年后卖出了好价钱。

对于数据的所有者、数据行业的从业者而言,这句话只说出了一半真相。Michael Palmer 对这句话进行了补充:

“Data is just like crude. It’s valuable, but if unrefined it cannot really be used. It has to be changed into gas, plastic, chemicals, etc to create a valuable entity that drives profitable activity; so must data be broken down, analysed for it to have value.” — Michael Palmer

简单来讲,就是 “数据需要提炼才能释放真正的价值”。

对于一个企业来说,最容易理解和最容易做的是 “大数据” 3 个字的 “大” 字,在意识到经营各个环节的数据中可能蕴含着营收、用户数增长的奥秘之后,往往积累了大量的原始数据。这些原始数据就是原油,尽管珍贵,但包含了很多的噪音、杂质,甚至错误,不同数据间的内在关系也不是显而易见的。这距离需要挖掘的奥秘还有很长的路。要洞悉这些奥秘就需要继续 “提炼”,就是使用恰当的方法对原始数据进行整理、提纯、组合、分析,去芜存菁、抽丝剥茧,揭示数据中真正有价值的部分,最终转化为业务增长的驱动力。

支撑这一 “提炼” 全流程的基础设施就是一个企业的数据平台。数据平台之于数据,就好比炼油厂之于原油。

随着企业数据量的爆炸式增长,以及越来越多的企业上云,数据平台面临的数据存储、数据处理的挑战越来越大,采用什么样的技术来构建和迭代这个平台一直是业界研究的热点,新技术和新思路不断涌现。这些技术归纳下来以数据仓库 (Data Warehouse) 和数据湖 (Data Lake) 为两类典型的路线。近年来这两个路线在演进过程中边界日趋模糊,逐渐走向融合,开始形成所谓的现代数据架构 (Modern Data Architecture),又称湖仓一体 (Data Lakehouse)。

3. 数据平台的组成

在讨论具体的技术问题之前,我们先看下业界的数据平台长什么样:

数据平台 = 存储系统 + 计算引擎 + 接口

这几部分的作用可以概括如下。

3.1 数据存储

数据存储解决将原料存进来的问题,具有时间跨度长、来源分散、集中存储的特点。

  • “时间跨度长”的意思是数据存储应尽可能地保存全历史数据。历史数据对企业的重要性,在于 “以史明鉴”,从一个更长的时间维度去观察数据的趋势、健康度等信息。
  • “来源分散”是因为数据的源头通常是各类业务系统,可能是 MySQL、Oracle 这样的关系型数据库中的数据,也可能业务系统记录的日志。企业还可能购买或采集第三方的数据集作为内部数据的补充。数据平台需要有能力导入不同源头的数据,至于导入后以什么样的格式存储,不同的技术方案有各自的要求。
  • “集中存储”是为了建立 single source of truth,无论数据的源头在哪里,纳入数据平台之后,数据平台就是唯一的可信来源。这里更多的是指逻辑上的集中存储,在物理上还存在分散的可能性,例如一个企业采用了多云架构,将数据分散存储在不同的云厂商,数据平台对数据使用方屏蔽了数据的实际位置。集中存储同时还意味着更精细的管控,防止数据使用权限扩大到不必要的范围。

3.2 计算引擎

计算引擎的目标是从数据存储中提炼有效信息。遗憾的是,目前业界并不存在一个大一统的计算引擎,根据模型、实效性、数据量的要求,往往采用不同的解决方案。典型的,对于深度学习任务使用 TensorFlow、PyTorch、PaddlePaddle 等框架,数据挖掘等离线计算采用 Hadoop MapReduce、Spark 等引擎,商业智能分析使用 Apache Doris 等 MPP 数据仓库。

不同的计算引擎对数据存储的格式的要求也不尽相同:

  • 一部分计算引擎支持的接口比较开放和底层,对数据格式的要求很宽松。例如 Hadoop MapReduce、Spark 可以直接读取 HDFS 中的文件,这些数据是什么样的格式,引擎本身并不关心,业务自己决定如何解释和使用数据。当然,有一些格式(如 Apache Parquet 等)应用比较广泛,在底层接口之上,引擎可以选择封装出对特定格式的处理逻辑,减少业务的重复开发成本。
  • 另外一部分计算引擎较为封闭,只能支持有限的数据格式,甚至不暴露内部的数据格式,所有的外部数据处理前都必须经过导入的步骤。例如,Apache Doris 的数据如何存储是系统自己决定,好处是可以让存储和计算配合更紧密,性能更好。

计算引擎在计算过程中生产的一些有价值的数据,一般也会存回数据存储中,以方便其他业务使用。

3.3 接口

接口决定了数据平台的用户如何使用计算引擎。最为流行的是 SQL 语言接口。一些计算引擎还提供了封装层次不一的编程接口。对于一个企业来说,提供的接口种类越少越通用,对用户来说越友好。

4. 数据平台的两种路线:数据仓库和数据湖

4.1 数据仓库

在这里插入图片描述
数据仓库出现的时间要远比数据湖要早。最初的场景是商业智能 (Business Intelligence),简单说就是企业的管理层希望有一个方便看各类经营数据的仪表盘,展示一些统计、趋势数据,数据来源是 ERP、CRM、业务数据库等。为了把这个需求做得好用,最佳的方法是将企业内部各个数据源的数据统一收集到单个站点上归档,并维护历史数据,让相关的查询需求在这一个站点解决。这个统一的站点就是数据仓库。

主流的数据仓库实现基于“联机分析处理 (Online Analytical Processing, OLAP)”技术。在数据仓库诞生之前,业务已经广泛在使用 MySQL、Orcale 等关系型数据库,这类数据库基于“在线交易处理 (On-Line Transactional Processing, OLTP)”技术。OLTP 数据库中的数据有固定的格式,组织清晰,支持的 SQL 查询语言好用易懂。同时,其自身又是数据仓库最重要的数据来源之一。因此,直接使用 OLTP 数据库来建设数据仓库是一个很自然的想法。但很快,大家就发现数据仓库有自己的业务特点,基于 OLTP 遇到了瓶颈,OLAP 获得独立发展的契机:

  • 一方面,OLTP 数据库的数据存储方式是面向行的 (row-oriented),一个行的数据存储在一起,读取的时候哪怕只需要几个字段,都需要把整行数据都读取出来再提取需要的字段。数据仓库表的字段通常比较多,这就导致了读取效率不高。面向列的 (column-oriented) 的数据存储方式,将不同的列或列族分开存储,在读取的时候就可以只读取需要的部分,这种方式能够有效减少读取的数据量,对数据仓库的场景更为友好。
  • 另一方面,传统 OLTP 数据库依赖单机硬件配置的 scale-up 来提升处理能力,上限较低。而数据仓库场景一次查询读取的数据量非常大,在相同字段上反复调用同样的读取逻辑,很适合做单机、多机的并行处理优化,利用集群的 scale-out 处理能力来缩短查询的时间。这就是 MPP (Massively Parallel Processor) 计算引擎的核心思想。

因此,现代数据仓库架构的特点是分布式、列式存储、MPP 计算引擎。用户发起计算任务后,数据仓库的MPP 计算引擎将计算进行分拆,每个节点负责处理一部分,节点间并行计算,最终汇总结果输出给用户。

数据仓库是典型的 “Schema-on-Write” 模式,要求存储的数据在写入的时候处理成预先定义的格式,即schema。这就好比数据仓库的管理员提前确定了一个包装盒的样式,所有的货物 (数据) 必须用包装盒装好,整整齐齐才能进入仓库。

数据源的原始数据往往和定义好的 schema 存在差异,因此导入的数据需要经过 ETL 过程,ETL 是抽取(Extract)、转换 (Transform)、加载 (Load) 这三个步骤的缩写。Extract 阶段从原始数据源读取进行数据清理(data cleansing) 纠正其中存在的错误、重复。然后进入 Transform 阶段,做必要的处理将数据转化成指定的schema。最后,数据入库 Load 到数据仓库中。

4.2 数据湖

在这里插入图片描述
内蒙古自治区白云鄂博矿,全球唯一一个同时包含 17 种稀土元素的矿。在长达 60 多年的时间里,这个矿一直被当成铁矿开采,后来随着稀土战略价值的提升,以及开采技术的进步,才转型为中国最大的稀土矿藏。

讲这个故事是想说明原始数据的重要性,原始数据就像白云鄂博矿,除了已经被发现的铁,还可能蕴藏着储量丰富的稀土。数据仓库的 “Schema-on-Write” 模式要求我们在处理数据之前就确切的知道我们挖的是什么,当时间流逝,历史数据只剩下数据仓库中保存的那些时,我们可能连丢弃掉了哪些稀土都不会知道。

更好更多地保留原始数据,避免丢失重要的未知信息,这是数据湖概念的初衷。数据湖提倡所有的数据,不管是数据库的结构化数据,还是视频、图片、日志这类非结构化的数据,都以它们原始的格式存储到一个统一的存储底座中。各个数据源,仿佛一条条河流,汇聚到这个统一的 “湖” 中融为一体,所有的数据使用方由这个“湖” 统一供水。

由于缺乏明确的结构信息,数据湖使用 “Schema-on-Read” 模式,用户在读取数据后再将其转化为对应的结构进行处理。和数据仓库的 “Schema-on-Write” 相比,对数据的处理流程变成了 ELT,即 Transform 阶段在Load 之后发生。

“Schema-on-Read”由于结构非常松散,对计算引擎的约束较少,业界事实上根据不同的场景发展出多种计算引擎。传统的数据湖,是大数据体系的等价词,主要经历了 “存算一体” 和 “存算分离” 两个阶段:

4.2.1 阶段 1:存算一体数据湖

这一阶段企业基于 Hadoop 生态开展数据湖,使用 HDFS 作为数据存储,使用 Hadoop MapReduce、Spark 等计算引擎,计算和存储资源在同一批机器上,扩容集群会同时扩容算力和容量。云计算发展起来之后,这套架构被从线下 IDC 机房原封不动地搬到云上。

4.2.2 阶段 2:存算分离数据湖

在经历一段时间的实践之后,存算一体架构遭遇到了瓶颈,主要体现在几个方面:

  • 计算和存储无法分开扩容,而现实中大部分用户对这两种资源的需求不是匹配的,存算一体架构必然会导致其中一种资源的浪费。
  • 存储容量和文件数量爆炸式增长之后,HDFS 的 NameNode 单点架构遇到了元数据性能的瓶颈,企业通过升级 NameNode 节点配置、多套 HDFS 集群或 HDFS Federation 来缓解该问题,但未能根本解决此问题,给数据平台运维人员带来极大的负担。
  • 存储成本也是存算一体架构的一个痛点。HDFS 的 3 副本机制并不适合存储较冷的数据,比纠删码机制的成本要高出至少一倍。在云上还面临副本放大的问题,云厂商提供的云磁盘本身就有副本机制,使用云磁盘搭建 HDFS 的实际副本数更高,可能高达 9 副本。

人们在解决这些问题的过程中注意到云厂商的对象存储服务。这种服务提供了一个性能和容量近乎无限扩展、成本低廉、serverless 的存储系统。除了在部分文件系统接口 POSIX 兼容性方面 (如原子 rename、边写边读等) 存在不足,这个服务解决了上述的痛点问题,是 HDFS 的一个合适替代品。实际上,下一代 HDFS 系统 OZone 系统也借鉴了对象存储的思路来解决上述问题。

以对象存储为基础的数据湖诞生了“存算分离“架构。存算分离的特点是计算资源和存储资源独立扩展。存算分离架构中的存储是云厂商提供的对象存储服务。和自建 HDFS、OZone 相比,云厂商最大的一个优势来自规模。云厂商需要足够大的集群来存储海量的用户数据,数据量越大,集群的规模就越大,节点、设备就越多,能够提供的整体性能就越高。对于单个用户来说,就能“借用”到比同等规模自建 HDFS 更高的性能。足够大的存储资源池,是存算分离架构能够工作的前提和底气。

在对象存储解决了扩展性、性能、成本的基础上,serverless 的产品形态让存算分离数据湖的计算引擎很容易独立伸缩其算力,甚至可以做到需要计算的时候才去分配计算资源,计算完成就立刻销毁资源,仅为使用的资源付费,在成本和效率方面做到最优。这一点是存算分离架构和云计算之前的时代是不可能做到的。

对于云厂商来说,这种架构的转变让对象存储服务一下子成为舞台的焦点,让云厂商甜蜜的同时也考验着他们的技术实力,吹过的牛逼必须不打折扣地一一兑现。这里的主要挑战包括:

  • 规模。一个客户数 PB 几十 PB,很多客户共享资源池,累加起来让对象存储的容量轻松达到 EB 级,相应的元数据规模达到万亿级。单个集群服务好 EB 级的容量、万亿级的元数据,需要非常优秀硬核的架构设计,系统的每个部分都不存在扩展性的短板。
  • 稳定性。支持 EB 级的容量、万亿级的元数据,每个集群的机器数量达到数万甚至数十万台,庞大的机器基数下,硬件故障、软件故障是家常便饭。降低甚至消除这些不可控因素的影响,提供稳定的延时和吞吐水平、较低的长尾,拼的是高质量的工程实现和运维能力。
  • 兼容性。尽管对象存储作为数据湖存储已经成为一个共识,但大数据体系内的软件,无论是因为历史包袱的原因,还是因为确实无法改造,在一些场景下依然会依赖 HDFS 特有的一些能力。例如,Spark 依赖 rename 提交任务,利用了 HDFS rename 操作较快的执行速度和原子性保证,但在对象存储的鼻祖 AWS S3 里,rename 不被支持,只能粗糙的通过“拷贝 + 删除”模拟,执行速度很慢且没有原子性保证。如果各家云厂商对象存储的普遍水平是在 70% 的场景下取代 HDFS,那剩下的 30% 的部分就看厂商如何进一步去解决兼容性差的部分,从而让存算分离架构执行得更彻底。

4.3 数据仓库 VS 数据湖

数据仓库和数据湖套用前文的公式归纳为:

数据仓库 = 结构化数据存储系统 + 内置计算引擎 + SQL 接口
数据湖 = 原始数据存储系统 + 多种计算引擎 + 包含 SQL 在内的多种接口

数据仓库和数据湖就好比是手机届的 iOS 和 Andriod:

  • 数据仓库好比 iOS,是一个相对封闭的体系,数据流入流出、使用场景约束较多,但胜在简单易用,封闭的体系控制力更强,较容易做存储格式、计算并行等性能上的优化,在一些要求极致性能的查询场景仍占据着主导地位。
  • 数据湖好比 Android,强调开放性,几乎把选择的权利都下放给用户了,可以选择的手机厂商 (计算引擎) 也很多,但用好它需要用户一定的专业能力,用不好会有副作用,很容易导致 “数据沼泽 (Data Swamp)”。

5. 现代数据平台:湖仓一体

5.1 数据湖面临的困境

数据湖将 “存储什么数据、如何使用数据” 的决定权还给了用户,约束非常宽松。但用户如果在数据入湖的时候没有做好数据的管理工作,有用无用、高质量低质量的数据被一股脑丢进来了,使用的时候很容易找不到需要的数据。长期下来,数据湖变成了一个巨大的垃圾场,规范的叫法是 “数据沼泽”。
为了避免数据湖最后变成数据沼泽,需要解决几个重要的问题。

5.1.1 问题 1:数据质量问题

仅靠 “Schema-on-Read” 在计算时直接处理原始格式的数据,过滤掉其中的无用信息,这个工作每次计算都需要重复做,既降低了计算的速度又既浪费了算力。

一个可行的方式,是在数据湖借鉴数据仓库的做法,通过一轮或多轮 ETL 对原始数据进行一些前置处理,将数据转化成对计算引擎更友好、数据质量更高的数据。原始数据不删除,而 ETL 产生的数据同样存储在数据湖中,这样既保留了原始数据,又保证了计算的效率。

5.1.2 问题 2:元数据 (metadata) 管理问题

元数据是描述数据的数据,它对数据的重要性在于它负责回答那几个重要的哲学问题 “我是谁?我在哪里?我从哪里来?”。数据的格式信息 (例如一个数据库表文件的字段定义) 、数据的位置信息 (例如数据存储在哪个路径)、数据的血缘关系 (例如数据是从哪些上游数据处理得到的) 等等都需要依赖元数据来解释。

为数据湖建立完善的元数据可以帮助用户更好地使用数据。一般元数据分为两部分,都很重要。一个是集中的数据目录 (Data Catalog) 服务,一般这类服务具备一些自动分析和模糊搜索的能力,用于管理和发现数据湖中都有哪些数据。另外就是数据自己内置的元数据,这些元数据可以保证即使数据挪了位置也能准确的解释数据。打个比方,数据目录好比图书馆里的书架,通过对书籍分门别类整理归档,能够快速地定位书籍所在的位置;数据内置的元数据好比一本书的目录部分,通过目录可以快速了解这本书大概包含哪些内容,都位于哪一页;当一本书从一个书架挪动到另外一个书架上,改变的只是书的位置,书的目录没有变化。

元数据管理还需要解决数据权限的问题。数据湖底层依赖的存储系统,无论是HDFS,还是对象存储,提供的数据权限是以目录和文件为单位的,粒度和上层业务的需求并不一致。举个例子,一个图片识别 AI 任务的数据集有很多的小文件,这些小文件的应当被视作一个整体,不存在“一个用户有权限访问其中部分文件,没权限访问另外一部分文件”的现象。另外一个例子是,一个文件存储了业务订单的数据,对于销售人员、公司高管,能够查看的数据范围是不一样的。这些都要求更精细的权限控制。

5.1.3 问题 3:数据版本问题

数据入湖通常不是一锤子买卖,导入一次从此就不更新了。例如,从线上用户订单数据库采集数据到数据湖用于后续分析,需要源源不断的同步新的订单。解决多次导入问题最简单的方法就是每次都全量导入一遍,但这种方式显然过于粗糙,会增加资源消耗,数据导入的耗时也较高。

因此,支持对数据增量更新是数据湖的一个重要能力。这其中存在一些棘手的难题,包括:1) 正在更新的时候如何处理读请求;2) 更新操作中断后如何恢复;3)如何识别不完整的更新操作;4) 数据被一次错误的操作污染之后如何复原。后面的这些棘手问题在数据库和数据仓库中的答案是 ACID。数据湖领域近年来出现的表格格式 (Table Format),如 Apache Iceberg、Apache Hudi、Delta Lake 致力于为对象存储补齐这些能力,已经成为数据湖的重要组成部分。

5.1.4 问题 4:数据流通问题

现实场景复杂多变,对数据处理的实时性、准确性要求不尽相同,业界也因此发展出来诸多的计算引擎。如果这些计算引擎各讲各话,只认自己定义的存储格式时,那么同样的一份数据在被不同计算引擎处理时,需要反复的做 Schema-on-Read 或者 ETL,白白浪费大量的资源。这显然不合理。

不需要经过翻译,大家都能讲普通话是最理想的。在大数据的发展过程中,逐渐形成了一些常用的数据格式(Apache Parquet、Apache ORC 等) 和表格格式(Apache Iceberg、Apache Hudi、Delta Lake 等),这些技术逐渐被越来越多的计算引擎支持,某种意义上充当了数据湖领域普通话的作用,改善了数据流通问题。

5.2 湖和仓融合的趋势

数据湖在迭代过程中,和数据仓库的界限越来越模糊,逐渐呈现出融合的趋势:

  • 在解决数据沼泽的过程之中,为了让一个很宽松的生态变得更好用,业界的实践实际上就是对数据湖的使用做了很多的约束。有意思的是,这些约束和原来数据仓库做的很多事情是很类似的,例如ETL、ACID、权限控制等。这使得数据湖呈现出数据仓库的一些特征。
  • 业界在尝试了一圈非 SQL 的各种编程接口和交互方式之后,发现很多的场景下,SQL 依然是最佳的选择。数据仓库这些年也越来越开放,对数据湖常用的一些数据格式、表格格式的支持越来越好,除了内置 ETL 的支持,也可以直接把它们当做外部源来处理。这些趋势表明,数据仓库作为一种重要的计算引擎,可以生长在数据湖之上。
  • 数据仓库同样面临存算一体的局限性,也在向存算分离架构迭代。一些系统采用了冷热分离的设计,热数据保存本地节点高速介质上,冷数据下沉到数据湖中,在性能和成本之间取得平衡。另外一些更彻底的云原生数仓系统,全量数据都在数据湖中,通过本地节点的缓存来弥补数据湖速度的问题,这种设计可以简化数据仓库的架构,让数据仓库不需要再关注数据可靠性问题,同时可以让多个只读集群共享同一份数据。
  • 数据仓库领域发展的一些重要技术和方法,也可以被数据湖之上的大数据计算引擎借鉴,反之亦然。例如在 ClickHouse 等数据仓库中成熟应用的计算引擎加速技术,如向量化计算 (vectorization)、LLVM JIT,被借鉴来实现 Spark 的 Native 引擎,和原有的 JVM 引擎相比,Native 引擎的硬件资源利用率更高,计算速度更快。

除了数据仓库、大数据外,企业内还存在其它重要的计算类型,最常见的就是AI、HPC 等高性能计算。数据湖的性能优势的体现是吞吐高,元数据性能和延时一般,而高性能计算对元数据性能、延时有比较苛刻的要求。因此,企业还需要在数据湖外为这类业务额外维护一套或多套高速文件存储系统 (Lustre、BeeGFS 等)。本质上看,高性能计算使用的框架也是某种计算引擎,数据的来源和产出也是企业数字资产的一部分,如何将这部分业务纳入到数据湖体系中是一个重要的问题。这个问题的答案和数据仓库存算分离是类似的,解决思路也是相通的,同样是两个路线:

  • 冷热分离设计。高速文件存储系统将数据湖作为冷数据层。
  • 基于数据湖设计云原生的文件系统。这类文件系统虽然提供文件系统接口,但实际上是一个缓存加速系统,采用的是“缓存层 + 数据湖”的架构。缓存层在计算节点或靠近计算节点的硬件上按需维护热数据的缓存。数据湖存储全量数据,保证数据的可靠性。一旦缓存系统中数据淘汰或丢失,仍然可以从数据湖重新加载数据。

湖仓一体这个说法最早是 Databricks 提出的,在业界尚有分歧,其它一些竞争公司会尽力避免使用这个术语,AWS 采用的是现代数据架构 (Modern Data Architecture) 的说法。但不管怎么命名,湖仓一体都代表着数据湖的下一阶段的形态,其本质是企业的终极一站式数据平台。

这个数据平台首先是一个 all-in-one 的存储基础设施,满足了企业所有的数据存储需求,不光能满足低成本的存储需求,也能满足高性能的需求。其次,数据平台超越了数据仓库、大数据的范畴,之上运行着数据仓库、大数据、AI、HPC 等各种各样的计算引擎,这些不同的计算引擎都能消费和产出互相能理解的数据结构,数据在业务之间的流转无障碍。

5.3 湖仓一体架构

在这里插入图片描述
根据前面的讨论,我们可以使用数据平台公式对湖仓一体进行简单的归纳:

湖仓一体 = 配备元数据层和加速层的对象存储 + 数据仓库、大数据、AI、HPC 等各个领域的计算引擎 + 包含SQL 在内的多种接口

存储系统部分,对象存储已经成为事实上的数据湖标准存储,其生态繁荣程度远超其它种类的云存储产品。对于对象存储无法很好解决的存储问题,需要搭配合适的元数据层和加速层。

  • 针对数据沼泽问题,元数据层建立必要的数据质量、元数据管理、版本管理、数据流通机制,让企业内部各业务能便捷地使用高质量的数据。
  • 针对一些对元数据、延时有更高要求的业务,如数据仓库、AI、HPC 等,加速层作为对象存储的补充,一般采用高速文件系统或者缓存系统,部署上离计算节点较近,元数据和数据可在加速层和数据湖之间自动流转。为了简化使用,加速层还会搭配上层的作业调度系统,来让数据流转工作更加智能和简单。例如,通过作业调度系统提前预热数据,在数据预热到缓存之后,作业调度系统才开始分配计算资源执行计算,由此可以享受到比数据湖更快的访问速度。

计算引擎部分,存在数据仓库、大数据、AI、HPC 等各类引擎。数据流转是最基本的问题。此外,还有一个重要的问题是这些计算引擎本身的调度和管理问题。从资源的角度看,这些计算引擎主要消耗 CPU、GPU 等种类的计算资源,具备资源共享的基础,提高资源的整体利用率对用户来说意味着节省成本。解决这个问题有两个手段。

  • 一个手段是,对于特定的计算引擎,使用云厂商的托管或 serverless 的服务代替自建,云厂商的服务内置弹性收缩能力,按需付费,可以让相关的资源利用率控制在合适的范围内,规避了资源共享的问题。
  • 另外一个手段是,用户自己运维的计算引擎使用统一的调度和资源管理平台来分配资源,这方面 Kubenetes 是最流行的选择,如果某种计算引擎还未支持在其上部署,只是时间问题。云厂商通常也会提供优化的Kubenetes 的版本或服务供用户选择。

接口部分,其实取决于具体的计算引擎,能用 SQL 表示的场景 SQL 是最好的选择,其它场景需要用户熟悉引擎的编程接口。

6. 总结

企业数据量爆炸式增长,业务场景日趋复杂,推动着数据平台技术不断变革。数据仓库、数据湖,这两种数据平台的技术路线在过去的实践中充分展现了各自的优点和缺陷,近年来开始融合,取长补短,向所谓的湖仓一体或现代数据架构迭代。

不断地涌现的新技术、新方法,是无数从业者集体智慧的结晶,而开放的基调则是促成这一切的催化剂。这一领域的开放体现在很多方面:

  • 数据是开放的。计算引擎越来越开放,普遍支持一些标准的数据格式,数据流通越来越容易,业务按需选择最合适的引擎处理计算任务。
  • 技术是开放的。湖仓一体技术架构中的绝大部分重要技术,都以开源项目的形式存在着,没有任何一家企业可以垄断知识产权。厂商发行版和开源版本之间可以相互替代,选择权在用户。技术的开放也促进了跨领域的技术融合,不同的领域之间互相借鉴方法和技术,扬长补短,起到 1 + 1 > 2 的效果。
  • 基础设施是开放的。在湖仓一体解决方案中,云厂商扮演着重要的角色,提供了对象存储、托管大数据服务等基础设施。这些基础设施兼容行业标准,也存在开源替代,客户很容易搭建混合云、多云架构,更好地利用云的弹性。

在这开放的基调下,整个行业,无论是用户还是平台,都对数据平台有自己的思考和看法。我们也希望借此表达我们的一些观点,一方面是希望能给业界提供一些浅薄的见解,另一方面未来回看时对自己而言也是雪泥鸿爪。

接下来本系列的文章,将围绕存储和计算的两大主题,介绍数据平台中的核心技术原理和最佳实践,以及百度智能云对这些问题的思考。帮助读者能对数据湖形成系统性认识,在做数据平台建设时更有思路。

原文:数据湖系列之一 | 你一定爱读的极简数据平台史,从数据仓库、数据湖到湖仓一体

这篇关于你一定爱读的极简数据平台史,从数据仓库、数据湖到湖仓一体的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/336649

相关文章

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi