重磅|Spark Delta Lake 现在由Linux基金会托管,将成为数据湖的开放标准

本文主要是介绍重磅|Spark Delta Lake 现在由Linux基金会托管,将成为数据湖的开放标准,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一年一度的  Spark + AI Summit Europe 峰会于2019年10月15-17日在欧洲的阿姆斯特丹举行。在10年16日 数砖和 Linux 基金会共同宣布 Delta Lake 和 将成为一个 Linux 基金会项目(参考:https://www.linuxfoundation.org/press-release/2019/10/the-delta-lake-project-turns-to-linux-foundation-to-become-the-open-standard-for-data-lakes)。该项目旨在建立一个开放的标准来管理数据湖中的大量数据,同时 Delta Lake 同样基于 Apache 2.0软件许可证开源。

640?wx_fmt=jpeg

Delta Lake 致力于提高数据湖的可靠性和可扩展性。它的高级抽象和保证,包括ACID事务和时间旅行,极大地简化了真实世界数据工程体系结构的复杂性。自从今年四月底的 Spark + Ai 峰会数砖宣布开源 Delta Lake 项目()。该项目每个月被部署在数千个组织中,成为数据和人工智能架构中不可或缺的基础组件。

 

为了进一步推动社区的采用和发展,数砖决定与Linux 基金会合作,利用他们的平台和丰富的经验来培育有影响力的开源项目,包括Linux本身、Jenkins和Kubernetes。数砖与阿里巴巴、Booz Allen Hamilton、英特尔和Starburst 公司一起宣布,不仅要对Apache Spark的Delta Lake 开发支持,还要对Apache Hive、Apache Nifi 和Presto 的开发进行支持。

 

为更健壮的数据湖提供丰富的特性集

 

正如前面所讨论的,Delta Lake 使数据湖中的数据更容易处理,也更健壮。它旨在解决数据湖中常见的许多问题。例如,不完整的数据摄入可能导致数据损坏;为了解决这个问题Delta Lak 引入了 ACID事务,支持多个数据管道并发地向数据湖读写数据。提供数据湖的数据源可能无法提供完整的列数据或正确的数据类型,因此 Schema Enforcement 可以防止坏数据导入到数据湖中从而导致数据损坏。更改数据捕获和 update/delete/upsert的支持允许非Append 的作业在数据湖上正常工作,这对于GDPR/CCPA来说是必须的。更多关于Delta Lake 的介绍可以参见过往记忆大数据之前的文章:重磅 | Apache Spark 社区期待的 Delta Lake 开源了。

 

Delta Lake 的功能还在不断增强,比如 Delta Lake 0.4.0 支持 Python Api,支持一些简单功能的 SQL 处理,参见过往记忆大数据之前的文章:Spark Delta Lake 0.4.0 发布,支持 Python API 和部分 SQL。相信在未来 Delta Lake 还会支持更多的功能。

 

数据湖的开放性和可扩展性

 

Delta Lake 设计的主要原则是开放性和可扩展性。Delta Lake将所有数据和元数据存储在云对象存储中,采用开放协议设计,利用了JSON 和 Apache Parquet 等现有的开放格式。这种开放性不仅消除了厂商锁定的风险,而且对于数据科学、机器学习和SQL的无数不同用例来说,也是至关重要的。

 

为了确保项目的长期发展和社区的发展,所以数砖与Linux基金会合作,进一步发扬这种开放精神。

 

开放 Delta Lake 管理和社区参与

 

很高兴Linux基金会现在将Delta Lake作为中立的项目,并采用开放治理模型来鼓励参与和技术贡献。这将有助于为 Delta Lake 项目的长期管理提供一个框架,并为 Delta Lake 社区建立良好的生态系统,开放 Delta Lake 存储的标准。我们相信,这种方法将有助于确保存储在 Delta Lake 的数据保持开放和可访问性,同时推动更多的创新和发展,以解决这一领域的挑战性问题。

 

Databricks 团队为data & AI生态系统创建并贡献了各种开源项目,包括Apache Spark、MLflow、Koalas和Delta Lake。数砖团队将继续参与开源社区,因为这是将新功能引入市场的最快、最全面的方式;能够建立一个可持续的、健康的业务,同时与社区保持联系,以确保项目不会将客户锁定在专有系统或数据格式中。

 

关于 Linux 基金会

 

Linux基金会是一个非盈利性的联盟,其目的在于协调和推动Linux系统的发展,以及宣传、保护和规范Linux,该组织是2007年,由开源码发展实验室(Open Source Development Labs,OSDL)与自由标准组织(Free Standards Group ,FSG)联合起来成立的,其中MeeGo是Linux基金会管理下的Linux操作系统。

 

本文翻译自 https://databricks.com/blog/2019/10/16/delta-lake-now-hosted-by-the-linux-foundation-to-become-the-open-standard-for-data-lakes.html

新福利:

从9月11日开始至10月15日截止,一共五周时间,每周二我会从公众号底部留言+转发+在看综合最多的读者中抽取一名读者,免费包邮送实体新书《HBase原理与实践》,留言互动起来吧~

上周获奖名单:xjy

640?wx_fmt=jpeg

640?wx_fmt=jpeg

640?wx_fmt=jpeg

 

猜你喜欢

1、

2、

3、

4、

 

640?wx_fmt=png

过往记忆大数据微信群,请添加微信:fangzhen0219,备注【进群】

这篇关于重磅|Spark Delta Lake 现在由Linux基金会托管,将成为数据湖的开放标准的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/636561

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

linux-基础知识3

打包和压缩 zip 安装zip软件包 yum -y install zip unzip 压缩打包命令: zip -q -r -d -u 压缩包文件名 目录和文件名列表 -q:不显示命令执行过程-r:递归处理,打包各级子目录和文件-u:把文件增加/替换到压缩包中-d:从压缩包中删除指定的文件 解压:unzip 压缩包名 打包文件 把压缩包从服务器下载到本地 把压缩包上传到服务器(zip

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

Linux 网络编程 --- 应用层

一、自定义协议和序列化反序列化 代码: 序列化反序列化实现网络版本计算器 二、HTTP协议 1、谈两个简单的预备知识 https://www.baidu.com/ --- 域名 --- 域名解析 --- IP地址 http的端口号为80端口,https的端口号为443 url为统一资源定位符。CSDNhttps://mp.csdn.net/mp_blog/creation/editor