微软发布功能强大的全新 Phi-3.5 机型,击败谷歌、OpenAI 等公司

本文主要是介绍微软发布功能强大的全新 Phi-3.5 机型,击败谷歌、OpenAI 等公司,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述
微软并没有因为与 OpenAI 的合作而满足于其在人工智能领域的成功。 相反,这家因总部位于华盛顿州而被称为雷德蒙德(Redmond)的公司今天发布了其不断发展的语言/多模态人工智能 Phi 系列中的 3 个新模型。这三个模型分别针对基本/快速推理、更强大的推理和视觉(图像和视频分析)任务而设计。

这三个模型都允许开发者在Hugging Face上下载、使用和微调,并采用微软的MIT许可,允许商业使用和无限制修改。 令人惊讶的是,这三个模型在一些第三方基准测试中的性能也接近最先进水平,甚至在某些情况下击败了其他人工智能提供商,包括谷歌的Gemini 1.5 Flash、Meta的Llama 3.1,甚至OpenAI的GPT-4o。

在这里插入图片描述

Phi-3.5 Mini Instruct: 为计算受限环境而优化

Phi-3.5 Mini Instruct 模型是一款拥有 38 亿个参数的轻量级人工智能模型,专为遵守指令而设计,支持 128k 标记上下文长度。 该模型非常适合在内存或计算受限环境中需要强大推理能力的场景,包括代码生成、数学问题求解和逻辑推理等任务。

尽管体积小巧,Phi-3.5 Mini Instruct 模型在多语言和多轮会话任务中表现出了极具竞争力的性能,与前代产品相比有了显著改进。 它在多项基准测试中的性能接近最先进水平,并在衡量 "长上下文代码理解 "的 RepoQA 基准测试中超越了其他类似尺寸的模型(Llama-3.1-8B-instruct 和 Mistral-7B-instruct)。

在这里插入图片描述

Phi-3.5 MoE: 微软的 “专家混合物”

Phi-3.5 MoE(专家混合物)模型似乎是该公司推出的第一个模型类别,它将多种不同的模型类型整合到一个模型中,每种模型都擅长不同的任务。 该模型利用具有 420 亿个活动参数的架构,支持 128k 标记上下文长度,为要求苛刻的应用提供可扩展的人工智能性能。 Phi-3.5 MoE 专为各种推理任务而设计,在代码、数学和多语言语言理解方面表现出色,在特定基准测试(包括 RepoQA)中的表现往往优于大型模型:

在这里插入图片描述
此外,在科技、人文和社会科学等学科的 5 次 MMLU(大规模多任务语言理解)测试中,它也在不同的专业水平上击败了 GPT-4o mini,令人印象深刻。

在这里插入图片描述
MoE 模型的独特架构使其能够在处理跨多种语言的复杂人工智能任务时保持高效。

Phi-3.5 Vision Instruct: 高级多模态推理

Phi-3.5 Vision Instruct 模型将文本和图像处理功能整合在一起,完成了三重奏。 这种多模态模型特别适用于一般图像理解、光学字符识别、图表和表格理解以及视频摘要等任务。

与 Phi-3.5 系列中的其他模型一样,Vision Instruct 支持 128k 标记上下文长度,使其能够管理复杂的多帧视觉任务。 微软强调,该模型的训练结合了合成数据集和经过过滤的公开数据集,侧重于高质量、推理密集的数据。

训练新的 Phi 三巨头

Phi-3.5 Mini Instruct 模型使用 512 个 H100-80G GPU,历时 10 天,在 3.4 万亿个代币上进行了训练;Vision Instruct 模型使用 256 个 A100-80G GPU,历时 6 天,在 5000 亿个代币上进行了训练。 Phi-3.5 MoE 模型采用专家混合架构,使用 512 个 H100-80G GPU,历时 23 天,在 4.9 万亿个代币上进行了训练。

MIT 许可下的开放源码

所有三种 Phi-3.5 型号均在 MIT 许可下提供,体现了微软支持开放源码社区的承诺。 该许可允许开发人员自由使用、修改、合并、发布、分发、转授权或出售软件副本。 该许可还包括一项免责声明,即软件按 "原样 "提供,不提供任何形式的保证。 微软和其他版权持有者对因使用该软件而可能产生的任何索赔、损害或其他责任不承担任何责任。 微软发布 Phi-3.5 系列代表着多语言和多模态人工智能的发展向前迈出了重要一步。 通过在开源许可下提供这些模型,微软使开发人员能够将尖端的人工智能功能集成到他们的应用程序中,从而促进商业和研究领域的创新。

这篇关于微软发布功能强大的全新 Phi-3.5 机型,击败谷歌、OpenAI 等公司的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1093673

相关文章

SpringKafka消息发布之KafkaTemplate与事务支持功能

《SpringKafka消息发布之KafkaTemplate与事务支持功能》通过本文介绍的基本用法、序列化选项、事务支持、错误处理和性能优化技术,开发者可以构建高效可靠的Kafka消息发布系统,事务支... 目录引言一、KafkaTemplate基础二、消息序列化三、事务支持机制四、错误处理与重试五、性能优

新特性抢先看! Ubuntu 25.04 Beta 发布:Linux 6.14 内核

《新特性抢先看!Ubuntu25.04Beta发布:Linux6.14内核》Canonical公司近日发布了Ubuntu25.04Beta版,这一版本被赋予了一个活泼的代号——“Plu... Canonical 昨日(3 月 27 日)放出了 Beta 版 Ubuntu 25.04 系统镜像,代号“Pluc

Mybatis从3.4.0版本到3.5.7版本的迭代方法实现

《Mybatis从3.4.0版本到3.5.7版本的迭代方法实现》本文主要介绍了Mybatis从3.4.0版本到3.5.7版本的迭代方法实现,包括主要的功能增强、不兼容的更改和修复的错误,具有一定的参考... 目录一、3.4.01、主要的功能增强2、selectCursor example3、不兼容的更改二、

Nginx实现前端灰度发布

《Nginx实现前端灰度发布》灰度发布是一种重要的策略,它允许我们在不影响所有用户的情况下,逐步推出新功能或更新,通过灰度发布,我们可以测试新版本的稳定性和性能,下面就来介绍一下前端灰度发布的使用,感... 目录前言一、基于权重的流量分配二、基于 Cookie 的分流三、基于请求头的分流四、基于请求参数的分

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot

定价129元!支持双频 Wi-Fi 5的华为AX1路由器发布

《定价129元!支持双频Wi-Fi5的华为AX1路由器发布》华为上周推出了其最新的入门级Wi-Fi5路由器——华为路由AX1,建议零售价129元,这款路由器配置如何?详细请看下文介... 华为 Wi-Fi 5 路由 AX1 已正式开售,新品支持双频 1200 兆、配有四个千兆网口、提供可视化智能诊断功能,建

五大特性引领创新! 深度操作系统 deepin 25 Preview预览版发布

《五大特性引领创新!深度操作系统deepin25Preview预览版发布》今日,深度操作系统正式推出deepin25Preview版本,该版本集成了五大核心特性:磐石系统、全新DDE、Tr... 深度操作系统今日发布了 deepin 25 Preview,新版本囊括五大特性:磐石系统、全新 DDE、Tree

Linux Mint Xia 22.1重磅发布: 重要更新一览

《LinuxMintXia22.1重磅发布:重要更新一览》Beta版LinuxMint“Xia”22.1发布,新版本基于Ubuntu24.04,内核版本为Linux6.8,这... linux Mint 22.1「Xia」正式发布啦!这次更新带来了诸多优化和改进,进一步巩固了 Mint 在 Linux 桌面

多模块的springboot项目发布指定模块的脚本方式

《多模块的springboot项目发布指定模块的脚本方式》该文章主要介绍了如何在多模块的SpringBoot项目中发布指定模块的脚本,作者原先的脚本会清理并编译所有模块,导致发布时间过长,通过简化脚本... 目录多模块的springboot项目发布指定模块的脚本1、不计成本地全部发布2、指定模块发布总结多模

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用