5款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

2024-05-06 12:04

本文主要是介绍5款采用AMD Instinct MI300芯片的超酷AI和HPC服务器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

我们收集了戴尔科技、联想、超微和技嘉的五款超酷人工智能和高性能计算服务器,这些服务器使用 AMD 的 Instinct MI300 芯片,该芯片于几个月前推出,旨在挑战 Nvidia 在人工智能计算领域的主导地位。

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

AMD 正在凭借其 Instinct MI300 加速器芯片向 Nvidia 在人工智能计算领域的主导地位发起迄今为止最大的挑战。推出几个月后,多款 MI300 服务器现已上市或即将发布,作为采用 Nvidia 流行芯片的系统的替代品。

在周二召开的第一季度财报电话会议上,AMD 董事长兼首席执行官苏姿丰 (Lisa Su) 表示,MI300 在“不到两个季度的总销售额”中就创造了超过 10 亿美元的成绩,成为其历史上“增长最快的产品”。

因此,AMD 目前预计 MI300 今年将产生 40 亿美元的收入,比该公司 1 月份的预测高出 5 亿美元。

“我们现在看到的是现有客户以及承诺使用 MI300 的新客户的可见性更高,”Su 说。

MI300系列目前由两款产品组成:MI300X GPU,配备192 GB HBM3高带宽内存;MI300A APU,在同一台处理器上结合了Zen 4 CPU核心和CDNA 3 GPU核心以及128 GB HBM3内存。死。

这些芯片已应用于戴尔科技、联想、超微和技嘉等主要 OEM 厂商现已推出或即将推出的系统中。

这家总部位于加利福尼亚州圣克拉拉的公司将 MI300X 定位为 Nvidia 流行且功能强大的 H100 数据中心 GPU 的强大竞争对手,用于人工智能训练和推理。例如,该公司表示,与 Nvidia 的 8 个 GPU H100 相比,其 MI300X 平台结合了 8 个 MI300X GPU,为 1760 亿个参数的 Bloom 模型提供了 60% 高的推理吞吐量,为 70B Llama 2 模型提供了 40% 低的聊天延迟GHX 平台。

而MI300A则更针对高性能计算和AI工作负载的融合。对于 64 位浮点计算,AMD 表示 MI300A 比 H100 快 80%。 AMD 表示,与 Nvidia 的 GH200 Grace Hopper Superchip(将 Grace GPU 与 H200 GPU 结合在一起)相比,MI300A 的 HPC 性能提高了两倍。

尽管 AMD 在 MI300 芯片上发现了所有优势,但该公司必须面对这样一个事实:Nvidia 正在加速芯片路线图,并计划在今年晚些时候发布 H100、H200 和 GH200 处理器的后继产品。

在最近的财报电话会议上,Su 表示 AMD 的战略不是关于一种产品,而是关于“多年、多代路线图”,并开玩笑说,它将在“未来几个月”分享有关“今年晚些时候到 2025 年”推出的新加速器芯片的详细信息。

“我们对继续保持竞争力的能力非常有信心。坦率地说,我认为我们将变得更具竞争力,”她说。

以下是来自戴尔、联想、Supermicro 和 Gigabyte 的五款超酷 AI 和 HPC 服务器,它们使用 AMD 的 Instinct MI300X GPU 或 Instinct MI300A APU。

完整原文传送门:5款采用AMD Instinct MI300芯片的超酷AI 和HPC服务器-国外VPS网站icon-default.png?t=N7T8https://www.vps911.com/gwvpstj/1740.html

1.戴尔 PowerEdge XE9680

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

戴尔的 PowerEdge XE9680 是一款风冷 6U 服务器,旨在为最复杂的生成式 AI、机器学习、深度学习和高性能计算工作负载提供支持。

该服务器使用 AMD Infinity Fabric 连接八个 AMD Instinct MI300X GPU,为系统提供 1.5 TB HBM3 高带宽内存和超过 21 petaflops 的 16 位浮点 (FP16) 性能。该系统通过 32 个 DIMM 插槽支持最大 4 TB DDR5 内存,并配备多达 10 个 PCIe Gen 5 扩展插槽。

PowerEdge XE9680 预计将于今年夏天上市,其主机处理器是两个第四代 Intel Xeon 可扩展 CPU,每个处理器最多可提供 56 个内核。

该服务器最多支持 8 个 2.5 英寸 NVMe/SAS/SATA SSD 驱动器,总计 122.88 TB;最多支持 16 个 E3.S NVMe 直连驱动器,总计 122.88 TB。

PowerEdge XE9680 配备了 Dell OpenManage 系统管理软件产品组合以及基于硅的信任根等安全功能。

2.联想ThinkSystem SR685a V3

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

联想最近推出的ThinkSystem SR685a V3是一款风冷8U服务器,旨在处理要求最苛刻的人工智能工作负载,例如大型语言模型。

该服务器现已上市,使用 AMD Infinity Fabric 连接八个 AMD Instinct MI300X GPU,为其提供 1.5 TB HBM3 高带宽内存容量和高达 1 TBps 的峰值聚合 I/O 带宽。它还通过 24 个 DIMM 插槽支持高达 3 TB 的 DDR5 内存,并配有多达 10 个用于连接扩展卡的 PCIe Gen 5 插槽。

ThinkSystem SR685a V3 还与 Nvidia 的 H100 和 H200 GPU 以及芯片设计商即将推出的 B100 GPU 兼容。

据OEM称,该服务器的主机处理器是两个第四代AMD EPYC CPU,可以升级到下一代服务器芯片。

最多支持16个2.5英寸热插拔NVMe SSD。它还配备了两个 M.2 启动驱动器。

联想表示,其空气冷却设计提供了“巨大的热空间”,使 GPU 和 CPU 能够提供持续的最高性能。

该服务器配备了 Lenovo 的 XClarity 系统管理软件。

3.超微 AS-8125GS-TNMR2

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

Supermicro 的 AS-8125GS-TNMR2 是一款风冷 8U 服务器,旨在消除大型语言模型的 AI 训练瓶颈,并作为大规模训练集群的一部分。

该服务器现已上市,使用 AMD Infinity Fabric 连接八个 AMD Instinct MI300X GPU,使其能够提供 1.5 TB 的 HBM3 高带宽内存池。这是对 24 个 DIMM 插槽支持的最大 6 TB DDR5 内存的补充。

AS-8125GS-TNMR2 配备 8 个 PCIe Gen 5 薄型扩展插槽,可实现 8 个 400G 网卡和 8 个 GPU 之间的直接连接,以支持大规模集群。它还具有两个 PCIe Gen 5 全高、全长扩展插槽。

主机处理器是两个第四代 AMD EPYC CPU,每个处理器最多支持 128 个内核。

它配备 12 个 PCIe Gen 5 NVMe U.2 驱动器,还可以选择四个附加驱动器、两个热插拔 2.5 英寸 SATA 驱动器和两个 M.2 NVMe 启动驱动器。

其他功能包括内置服务器管理工​​具、Supermicro SuperCloud Composer、Supermicro Server Manager 和硬件信任根。

4.技嘉G593-ZX1

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

技嘉G593-ZX1是一款风冷5U服务器,专为人工智能训练和推理而设计,特别是在涉及大型语言模型和其他类型的海量人工智能模型时。

该服务器使用AMD Infinity Fabric连接八个AMD Instinct MI300X GPU,使其能够提供1.5 TB的HBM3高带宽内存和42.4 TBps的峰值理论聚合内存带宽。它还支持 24 个 DDR5 内存 DIMM,并配有 12 个用于 GPU、网卡或存储设备的 PCIe Gen 5 扩展插槽。

G593-ZX1 的主机处理器是两个第四代 AMD EPYC CPU。

它支持八个2.5英寸NVMe/SATA/SAS-4热插拔驱动器。

该服务器的功能包括驱动器托架的免工具设计、可选的 TPM 2.0 模块、智能穿越、智能危机管理和保护以及双 ROM 架构。

预计将于今年上半年上市。

5.Supermicro AS-2145GH-TNMR

5 款采用AMD Instinct MI300芯片的超酷AI和HPC服务器

Supermicro 的 AS-2145GH-TNMR 是一款液冷 2U 服务器,旨在加速高性能计算工作负载。

该服务器现已上市,配备四个 AMD Instinct MI300A 加速器,每个加速器在同一芯片封装上结合了 Zen 4 CPU 和 CDNA 3 GPU 内核以及 HBM3 内存,以打破 CPU-GPU 通信的传统瓶颈。每个芯片上配备128GB HBM3高带宽内存,系统总共提供512GB内存。

AS-2145GH-TNMR 支持八个 2.5 英寸 US NVMe 热插拔驱动器选件。它还配备了两个 M.2 NVMe 启动驱动器。

Supermicro表示,与风冷解决方案相比,该服务器的直接芯片定制液体冷却技术使数据中心运营商能够将总拥有成本降低51%以上。它还使粉丝数量减少了 70%。

AS-2145GH-TNMR 配备两个紧凑型 PCIe Gen 5 AIOM 插槽和八个 PCIe Gen 5 x 16 插槽,支持超级计算集群的 400G 以太网 InfiniBand 网络。

其他功能包括内置服务器管理工​​具、Supermicro SuperCloud Composer、Supermicro Server Manager 和 SuperDoctor 5。

更多服务器资讯欢迎访问我的网站:国外VPS资讯网

这篇关于5款采用AMD Instinct MI300芯片的超酷AI和HPC服务器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/964298

相关文章

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

JavaWeb-WebSocket浏览器服务器双向通信方式

《JavaWeb-WebSocket浏览器服务器双向通信方式》文章介绍了WebSocket协议的工作原理和应用场景,包括与HTTP的对比,接着,详细介绍了如何在Java中使用WebSocket,包括配... 目录一、概述二、入门2.1 POM依赖2.2 编写配置类2.3 编写WebSocket服务2.4 浏

查询SQL Server数据库服务器IP地址的多种有效方法

《查询SQLServer数据库服务器IP地址的多种有效方法》作为数据库管理员或开发人员,了解如何查询SQLServer数据库服务器的IP地址是一项重要技能,本文将介绍几种简单而有效的方法,帮助你轻松... 目录使用T-SQL查询方法1:使用系统函数方法2:使用系统视图使用SQL Server Configu

SpringBoot整合DeepSeek实现AI对话功能

《SpringBoot整合DeepSeek实现AI对话功能》本文介绍了如何在SpringBoot项目中整合DeepSeekAPI和本地私有化部署DeepSeekR1模型,通过SpringAI框架简化了... 目录Spring AI版本依赖整合DeepSeek API key整合本地化部署的DeepSeek

nginx-rtmp-module构建流媒体直播服务器实战指南

《nginx-rtmp-module构建流媒体直播服务器实战指南》本文主要介绍了nginx-rtmp-module构建流媒体直播服务器实战指南,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. RTMP协议介绍与应用RTMP协议的原理RTMP协议的应用RTMP与现代流媒体技术的关系2