估值高达 380 亿美元!Spark 商业化公司 Databricks 再获 16 亿美元融资

2023-12-17 21:38

本文主要是介绍估值高达 380 亿美元!Spark 商业化公司 Databricks 再获 16 亿美元融资,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这样的情况似乎绝无仅有,一家公司在七个月前刚刚完成了一轮 10 亿美元的融资交易,七个月后这家公司再次筹集到了 16 亿美元。作为一家创业公司,自 2013 年成立以来,已经进行了共计八轮的融资,迅速的扩张之下其市值攀升至 380 亿美元,比上一轮融资时足足高出了 100 亿美元,没错,这家公司就是大数据独角兽、Spark 商业化公司 ——Databricks。

新一轮融资由摩根士丹利的 Counterpoint Global 领投,新投资者包括 Baillie Gifford、ClearBridge Investments 和加州大学的 UC Investments。此外,此前的投资者 BlackRock、Andreessen Horowitz、Tiger Global Management、T. Rowe Price Associates 和 Fidelity Investments 也参与了本轮融资。

不得不说,新一轮的资本热潮下,Databricks 正成为了硅谷的宠儿。

融资后的规划

Databricks 的联合创始人兼首席执行官 Ali Ghodsi 在一份公告声明中表示:“这项新投资反映了 Databricks Lakehouse 平台所呈现的快速增长的应用前景和大量的客户需求,并强调了行业和投资者对我们愿景的信心——Lakehouse 是未来的数据架构。这将揭开一个全新的篇章,这将使我们能够加快创新步伐,并进一步投资于让数据驱动型组织获得 Lakehouse 服务。”

在获得这一笔融资之后,Databricks 计划利用这笔资金进一步开发其 Databricks Lakehouse 平台,该平台是一种结合了数据湖和数据仓库优势的新范式,解决了数据湖的局限性。

作为加速其全球化的业务,Databricks 还聘请了前 Salesforce 高管 Andy Kofoid 担任公司新的全球现场运营总裁。

#快速发展下的 Databricks

回看 Databricks 的发展历程,CSDN 曾于早年间采访过来自 UC Berkeley 计算机系 AMPLab 的博士生、Databricks 联合创始人 Reynold Xin,其表示 Databricks 创立的初衷是从 Spark 开始,构建一系列更强大、更简单的大数据分析处理工具和平台。

2013 年 9 月,Databricks 从硅谷风投 Andreessen Horowitz 获得 A 轮融资 1390 万美元,其利用这些资金吸引人才,提高大数据生态系统发展的步伐。

2014 年,Databricks 获得 3300 万美元的投资,并推出了通过将流程置于云端来简化大数据处理云平台——Databricks Cloud。

2016 年,Databricks 获得由New Enterprise Associates 领投,Andreessen Horowitz 参投的 6000 万美元融资,此次投资有望帮助其公司完成在数据的组织、计算和交付方面的一次跨跃。

2017 年,Databricks 宣布完成 1.4 亿美元融资,本轮融资由 Andreessen Horowitz 牵头,New Enterprise Associates(NEA) 跟投,新投资人包括 Battery Ventures、Future Fund Investment、A.Capital、Geodesic Capital和 Green Bay Ventures。

2019 年 2 月,Databricks 宣布完成 E 轮融资,本轮融资由美国私人风投公司 Andreessen Horowitz 领投,微软、NEA、Battery Ventures 等跟投,融资金额达到 2.5 亿美元。

2019 年 10 月,Databricks 完成了由安德森-霍洛维茨基金(Andreessen Horowitz)牵头的 4 亿美元 F 轮融资,参与融资的有微软、Alkeon Capital Management、贝莱德、Coatue Management、Dragoneer Investment Group、Geodesic、Green Bay Ventures、New Enterprise Associates、T. Rowe Price和Tiger Global Management。

2020 年 2 月,Databricks 完成 10 亿美元融资。如今再获 16 亿美元融资后,Databricks 已完成将近 35 亿美元的融资金额。

在狂热的资金投入背后,Databricks 从大数据领域“杀入”云计算、人工智能市场之际,也相继推出 Delta Lake、MLFlow、Koalas、 Databricks Runtime、Databricks Lakehouse 等先进的产品,与此同时,Databricks 还透露将在人工智能方向的创新上进一步保留所有主要公共云的选择和灵活性,并将 Lakehouse 发展成传统数据仓库的替代品。

除此之外,今年夏天据 The Register 报道,Ali Ghodsi 曾表示 Databricks 的目标是今年“准备 IPO”。不过在此次获得新一轮融资时,Ghodsi 并未透露 Databricks 的 IPO 的时间安排,目前尚不清楚该公司是否会进行传统的 IPO,或者是否会继续筹集私募资金以便在选择上市时直接上市。无论如何,Databricks 与 NetApp(市值为 199.2 亿美元)、HPE(市值为 201.9 亿美元)等同行业的竞争对手相比,现在已经足够有价值,至于其未来下一步的计划,我们也将持续关注。

这篇关于估值高达 380 亿美元!Spark 商业化公司 Databricks 再获 16 亿美元融资的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/505955

相关文章

【JavaScript】LeetCode:16-20

文章目录 16 无重复字符的最长字串17 找到字符串中所有字母异位词18 和为K的子数组19 滑动窗口最大值20 最小覆盖字串 16 无重复字符的最长字串 滑动窗口 + 哈希表这里用哈希集合Set()实现。左指针i,右指针j,从头遍历数组,若j指针指向的元素不在set中,则加入该元素,否则更新结果res,删除集合中i指针指向的元素,进入下一轮循环。 /*** @param

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

创业者该如何设计公司的股权架构

本文来自七八点联合IT橘子和车库咖啡的一系列关于设计公司股权结构的讲座。 主讲人何德文: 在公司发展的不同阶段,创业者都会面临公司股权架构设计问题: 1.合伙人合伙创业第一天,就会面临股权架构设计问题(合伙人股权设计); 2.公司早期要引入天使资金,会面临股权架构设计问题(天使融资); 3.公司有三五十号人,要激励中层管理与重要技术人员和公司长期走下去,会面临股权架构设计问题(员工股权激

16 子组件和父组件之间传值

划重点 子组件 / 父组件 定义组件中:props 的使用组件中:data 的使用(有 return 返回值) ; 区别:Vue中的data (没有返回值);组件方法中 emit 的使用:emit:英文原意是:触发、发射 的意思components :直接在Vue的方法中声明和绑定要使用的组件 小炒肉:温馨可口 <!DOCTYPE html><html lang="en"><head><

react笔记 8-16 JSX语法 定义数据 数据绑定

1、jsx语法 和vue一样  只能有一个根标签 一行代码写法 return <div>hello world</div> 多行代码返回必须加括号 return (<div><div>hello world</div><div>aaaaaaa</div></div>) 2、定义数据 数据绑定 constructor(){super()this.state={na

某公司笔试编程题

参加了某公司编程题,这些题都来自牛客网,记录总结吧! 一、蛇形矩阵 题目描述 蛇形矩阵是有1开始的自然数依次排列成的一个上三角矩阵. 接口说明 void GetResult(int Num, int* pResult);输入参数:int Num :输入的正整数N输出参数:int *pResult: 指向放蛇形矩阵的字符串指针指针指向的内存区域保证有效 样例输入: 4

打靶记录16——Momentum

靶机: https://download.vulnhub.com/momentum/Momentum.ova 下载后使用 VirtualBox 打开 难度:中 目标:取得 root 权限 + 2 Flag 攻击方法: 主机发现端口扫描信息收集Web 路径爆破XSS 漏洞JS 脚本分析AES 解密Redis 认证漏洞 主机发现 sudo arp-scan -l 端口扫描和服务发

我的第一次份实习工作-iOS实习生-公司使用过的软件

bittorrentsync 素材,文件同步软件 cornerstone svn 软件开发合作 mark man 测量坐标的软件 SQLLite Manager 数据库操作软件

每个游戏公司的领导都应该看看Supercell的“十年总结”

我知道,你一定会说,Supercell的案例太特殊了。手游出现以来,全世界就只有这么一个Supercell,它的经历、理念和公司架构这些文化,其他公司学不来,不管对中国公司还是海外公司,都没有什么实际借鉴意义。 但Supercell真的有这么“特殊”吗? 比如他们对于留存数据的看重,尤其是测试期留存的看重,和国内——和任何一家常规游戏公司看重留存的态度,都没有什么明显不同。 他们也会试着设立

【spark 读写数据】数据源的读写操作

通用的 Load/Save 函数 在最简单的方式下,默认的数据源(parquet 除非另外配置通过spark.sql.sources.default)将会用于所有的操作。 Parquet 是一个列式存储格式的文件,被许多其他数据处理系统所支持。Spark SQL 支持对 Parquet 文件的读写还可以自动的保存源数据的模式 val usersDF = spark.read.load("e