AI企业CoreWeave靠抵押英伟达芯片完成23亿美元债务融资

本文主要是介绍AI企业CoreWeave靠抵押英伟达芯片完成23亿美元债务融资,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

dd46b579b7f2e720f61cf58dcdae02e8.png

雷递网 乐天 8月6日

ChatGPT的火热,让AI行业迎来一波投资热潮,英伟达大受其益。

当前,NVIDIA A100/H100系列加速卡因其强大的性能而备受追捧,价格居高不下,甚至需要十几万才能购得一块,这让美国一家创业公司成功获得了大笔投资。

大规模GPU加速工作负载的专业云提供商CoreWeave日前宣布完成23亿美元的债务融资,主要是利用手中的NVIDIA H100加速卡作为抵押。

本轮融资由Magnetar Capital领投,Blackstone牵头,Coatue、DigitalBridge Credit战略参与及BlackRock、PIMCO 和Carlyle管理的基金和账户参与投资。

CoreWeave拥有最先进且供应短缺的Nvidia芯片的独特渠道,使其在与微软、亚马逊和谷歌等传统云提供商的竞争中具有优势,而后者在致力于开发自己的芯片时面临供应限制。

CoreWeave此次巨额贷款还标志着私募资产融资市场的不断增长,因为私募股权公司转向以硬资产为担保的风险较低的贷款,并在银行放慢脚步时承担更多的企业债务。

CoreWeave 首席执行官迈克尔·因特拉特 (Michael Intrator) 表示:“我们与他们进行了谈判,确定了需要投入多少抵押品、折旧计划与支付计划的时间表。” “对我们来说,走出去并以资产为基础借钱是进入债务市场的一种非常具有成本效益的方式。”

2023年4月,CoreWeave宣布筹集2.21亿美元B轮融资,由Magnetar Capital领投,NVIDIA、Nat Friedman和Daniel Gross出资。一个月后,CoreWeave同样由Magnetar Capital领投的B轮融资中获2亿美元资金,此次融资后,公司估值超过20亿美元。

CoreWeave 成立于2017 年,是一家专业云提供商,在业界最快、最灵活的基础设施之上提供大规模 GPU 计算资源。

4e9865c3ae2d8c1351433a56c3fe913d.png

CoreWeave 为计算密集型用例(机器学习和 AI、VFX 和渲染、生命科学、Metaverse 和实时流媒体)构建云解决方案。

CoreWeave正通过大规模的专门构建的超高性能云基础设施为LLM(大型语言模型)和生成式AI热潮提供动力。

CoreWeave称,新的融资将用于增加其高性能计算团队,以服务其客户、开设新的数据中心,并增加CoreWeave的世界级员工队伍。

CoreWeave首席执行官、联合创始人迈克尔·因特拉特 (Michael Intrator) 表示:“只要基础设施到位,能大规模提供性能,人工智能就有潜力改变我们与技术接触的方式,为未来行业提供动力,并使社会重要服务更高效。”

 “CoreWeave 正在通过最可靠、最灵活和高性能的计算资源来满足这一前所未有的需求,以引领行业向前发展。这些世界级投资者的新资源是对我们迄今为止取得的成就投下的信任票,并验证了我们的未来战略。”

d446bc9a2601779e94a4b3dbbb8b38dd.jpeg

本月早些时候,CoreWeave宣布在德克萨斯州普莱诺建造一个耗资16亿美元的新数据中心,这是该公司继续积极扩大其容量和基础设施覆盖范围的里程碑。CoreWeave预计到2023年底将拥有14个数据中心。

上个月,CoreWeave推出了与 NVIDIA 合作打造的世界上最快的AI超级计算机,通过名为MLPerf 的行业标准基准测试进行测量,可在11分钟内训练完整的GPT-3 LLM工作负载。

Inflection AI使用支持 MLPerf 提交的基础设施在CoreWeave Cloud上创建世界上最复杂的大型语言模型 (LLM) 之一。简而言之,CoreWeave 允许客户在最短的时间内训练最复杂的模型。

———————————————

雷递由媒体人雷建平创办,若转载请写明来源。

f5abd06b83f186684091f753b41494d3.jpeg

6a2021e6850895c52598001b445cb1c4.jpeg

这篇关于AI企业CoreWeave靠抵押英伟达芯片完成23亿美元债务融资的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/194350

相关文章

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

SpringBoot使用OkHttp完成高效网络请求详解

《SpringBoot使用OkHttp完成高效网络请求详解》OkHttp是一个高效的HTTP客户端,支持同步和异步请求,且具备自动处理cookie、缓存和连接池等高级功能,下面我们来看看SpringB... 目录一、OkHttp 简介二、在 Spring Boot 中集成 OkHttp三、封装 OkHttp

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

Spring AI集成DeepSeek三步搞定Java智能应用的详细过程

《SpringAI集成DeepSeek三步搞定Java智能应用的详细过程》本文介绍了如何使用SpringAI集成DeepSeek,一个国内顶尖的多模态大模型,SpringAI提供了一套统一的接口,简... 目录DeepSeek 介绍Spring AI 是什么?Spring AI 的主要功能包括1、环境准备2

Spring AI集成DeepSeek实现流式输出的操作方法

《SpringAI集成DeepSeek实现流式输出的操作方法》本文介绍了如何在SpringBoot中使用Sse(Server-SentEvents)技术实现流式输出,后端使用SpringMVC中的S... 目录一、后端代码二、前端代码三、运行项目小天有话说题外话参考资料前面一篇文章我们实现了《Spring

Spring AI与DeepSeek实战一之快速打造智能对话应用

《SpringAI与DeepSeek实战一之快速打造智能对话应用》本文详细介绍了如何通过SpringAI框架集成DeepSeek大模型,实现普通对话和流式对话功能,步骤包括申请API-KEY、项目搭... 目录一、概述二、申请DeepSeek的API-KEY三、项目搭建3.1. 开发环境要求3.2. mav

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首