估值380亿美元,AWS与微软参投,大数据独角兽Databricks凭什么IPO?

2024-02-20 20:59

本文主要是介绍估值380亿美元,AWS与微软参投,大数据独角兽Databricks凭什么IPO?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

e4e171503164a20b95ca541f66baf29f.png

当外界还在惊叹280亿美元高额估值数额时,短短7个月,Databricks的估值再升100亿美元。 

美国当地时间8月31日,由 Apache Spark 初始成员创立的大数据初创公司 Databricks 宣布获得 16 亿美元 H 轮融资,新一轮融资由摩根士丹利的 Counterpoint Global 领投,此外,该行业的三个顶级云供应商 AWS、微软、以及 CapitalG都参与了此轮投资。本轮融资过后,Databricks的估值已经飙升至380亿美元。也就是说,距离上一轮10亿美元的G轮融资才7个月时间,其估值就已经增加了100亿美元。

f532710d7fb207722908433160bd8ebc.png

“分析与数据管理”投资热潮高涨,Databrick就是典型代表

Databricks联合创始人兼首席执行官 Ali Ghodsi 表示,这轮 16 亿美元的融资证实了他们对任何云上的数据和人工智能的开放和统一方法的愿景,且这笔资金将主要用于加速Data Lakehouse(湖仓一体)的产品创新和市场开拓。

5a05ff3e744f190a33e37f88dcbe7830.png

Crunchbase 数据指出,自云服务计算公司 Snowflake 在近一年前成功进行首次公开募股以来,风险资本对分析和数据管理初创企业的投资热潮已经达到了近 170 亿美元。其中有 150 多亿美元是在过去 8 个月里筹集的,而 Databricks 一直是其中的典型代表。

毫无疑问,Databricks 和 Snowflake 引领了一种新的云原生模型分析和商业智能模型。他们从不同的角度来解决问题,Snowflake 是集中式共享模型的缩影,而 Databricks 则强调分布式架构。不过,也有很多分析师认为他们最终的业务发展走向可能会趋于一致。譬如,Snowflake 最近就放弃了"warehouse"一词,而采用了更无定形的"data cloud"。

百亿估值的Databricks,到底是做什么的?

从Databricks官方主页上的标语:“一个 Lakehouse 平台,承载所有数据、分析和人工智能”出发,我们来了解一下Databricks。

2605d4024f306dda37ffadd48438fbcd.png

从本质上讲,Databricks是一家计算公司,通过解决三个关键问题中的以下两个,提出了一种搭建数据流水线的低代码解决方案:

  • 如何使用数据?

  • 如何把数据从源头向下游汇集和转化?

Databricks诞生于2013年,创始人来自Apache Spark的创始团队,包括加州大学伯克利分校的专家学者。Databricks以Apache Spark开源技术为基础,创建了一系列蓬勃发展的开源项目,包括Delta Lake、MLflow、Koalas等。截止2020年底,Databricks已经建立了一家拥有1500多名员工的公司,为数千个数据团队提供数据分析、数据工程、数据科学和人工智能方面的帮助。

2020年初,Databricks发表了一篇博客文章,分析了一直观察到的一个趋势:向Lakehouse架构(湖仓一体,即数据湖技术与数据仓库技术结合为一体)迈进。该体系结构基于开放架构,把构建在低成本云对象存储之上的数据湖的灵活性与 ACID 事务、数据模式强制执行和数据仓库相关的性能结合起来;

2019年,Databricks推出了Lakehouse的关键开源技术Delta Lake;

2020年6月,Databricks宣布收购以色列初创公司Redash并基于其技术推出了Lakehouse关键开源技术Delta Engine。同年,Delta Lake、Apache Spark和Databricks统一分析平台的进步,不断提高了Lakehouse架构的功能和性能。

抢滩 Lakehouse 市场,大胆拥抱开源

Ali Ghodsi 认为资本能帮助 Databricks 进一步获得市场领先地位。

“Lakehouse是一个新赛道,我们认为这个赛道中会有很多供应商,所以说这是一场地盘争夺战。我们希望快速构建并完成 lakehouse 赛道的布局。” Ghodsi 强调。

Lakehouse(湖仓一体),简单理解就是把面向企业的数据仓库技术与低廉的数据湖存储技术相结合。数据湖主要是公有云上提供的一种海量的结构化与非结构化数据的存储技术,而数据仓库主要是关系型数据的结构化数据存储与分析技术。两种技术各有其优缺点,当下企业往往分别建数据湖与数据仓库,而如果能够二者合一则可以同时获得两种技术的优点。当然,湖仓一体技术本身并不简单,整个2020年Databricks都在填补Lakehouse的技术空白。

Databricks试图提供完整的“数据流水线”方案——这意味着更多需要处理的数据、更多跑数据的机器、更多的收入。

Databricks看到了数据科学家和分析师们负责数据接入、基础架构、效率提升这些更底层的工作,所以工程师们对灵活度的要求很高,并且完全不介意多写一些代码,或是自己搭方案。

984752aa434b4f96cb01e66c990cdb78.png

在“数据流水线”上,这些数据工程师们往往占据上游,为了赢得他们的青睐,Databricks采用的策略是拥抱开源,尤其是继Spark之后,推出了Delta Lake——一个开源的数据存储方案。开源的方案给了这些工程师们所需的自由度,使得他们能够更可预期地掌握、挪动数据。Delta的开源,意味着任何人都可以在其方案里使用优秀的“.delta”存储格式,但是这在Databricks的数据本里,有着最为方便的原生支持。与新的功能,比如“Live Table”一起,Databricks平台已经开始赢得一些硬核数据工程师的青睐。

从长远来看,能让所有与数据打交道的人们在同一个平台上协作,就有着巨大的价值。与Databricks试图提供完整的“数据流水线”方案的愿景相似,智领云云原生DataOps同样试图让数据工程师等数据工作者能够用更简洁的工具支持自己的工作与管理。

智领云云原生DataOps的目标即让数据科学家、数据工程师以及数据运维人员等不同群体,能够在一套体系、工具与方法论的支持下,敏捷且高效地从事数据开发、数据管理等工作。

智领云云原生DataOps所做的事情就是为以数据为驱动的企业与数据工作者来做减法,此减法并非删减,而是通过云原生的方式让用户能够更加方便地集成各种工具与应用,然后在上层做出数据安全、数据质量、数据集成等抽象层,从而使用户即便是在使用看起来十分复杂的DataOps技术时,也能够得心应手。

文章参考:

InfoQ | 估值高达380亿美元!大数据独角兽Databricks官宣16亿美元新融资

云科技时代 | 大数据独角兽Databricks凭什么估值280亿美元?

硅谷成长攻略 | 百亿估值的Databricks,到底是做什么的?

 -End-

  文末抽奖  

扫码关注公众号

后台回复关键字【码农】

邀请10位好友领取奖品

75413ab6d67f3bd86ff9d87152534890.png

c95cb6d4c955a323b07eda9298d77d17.png

往期精彩回顾 

  • 特斯拉人形机器人亮相,机器人研发大军再加重磅级大亨马斯克 

  • 基于大数据的预测工具:寿命计算器,准确率高达98%,算算你能活多久?

  • 让Facebook和Google自叹不如,新算法无人机战胜人类专家……

  • 全球数据能存在一个咖啡杯中?DNA数据存储意外走红

  • “元宇宙”概念引爆科技界:扎克伯格说它将颠覆人类社会,英伟达也来“搅局”?

👇更多智领云科技详细内容,点击“阅读原文

这篇关于估值380亿美元,AWS与微软参投,大数据独角兽Databricks凭什么IPO?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/729528

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

高效+灵活,万博智云全球发布AWS无代理跨云容灾方案!

摘要 近日,万博智云推出了基于AWS的无代理跨云容灾解决方案,并与拉丁美洲,中东,亚洲的合作伙伴面向全球开展了联合发布。这一方案以AWS应用环境为基础,将HyperBDR平台的高效、灵活和成本效益优势与无代理功能相结合,为全球企业带来实现了更便捷、经济的数据保护。 一、全球联合发布 9月2日,万博智云CEO Michael Wong在线上平台发布AWS无代理跨云容灾解决方案的阐述视频,介绍了

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav