斯坦福发布端侧AI模型Octopus V2:推理比GPT-4快168%,准确率超Llama7B

本文主要是介绍斯坦福发布端侧AI模型Octopus V2:推理比GPT-4快168%,准确率超Llama7B,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

斯坦福大学科研团队近期发布的Octopus V2端侧AI大模型犹如一颗璀璨的新星冉冉升起,凭借其卓越的性能和高效的推理能力,在业界引起了巨大轰动。

这款拥有20亿参数的端侧强大语言模型一亮相,便在开发者社群内迅速蹿红,首夜下载量即突破两千次大关,展现出前所未有的魅力。

Octopus V2的独特之处在于其能在智能手机、汽车和个人电脑等多种终端设备上流畅运行,尤其在涉及自动化工作流的任务中,它能够灵活调用函数,堪称构建AI智能体的核心要素。

在性能层面上,Octopus V2在准确率和延迟上双双超越了炙手可热的GPT-4模型,而且大幅度缩减了上下文处理的长度,最高可达95%的压缩比例,大大提升了资源利用率。

相较于基于RAG函数调用机制的Llama7B模型,Octopus V2在响应速度上更是取得了惊人的飞跃,较之提升了36倍。这一卓越表现预示着一个崭新的设备端AI智能体时代已经来临。

相关链接

论文链接:https://arxiv.org/abs/2404.01744

体验链接:https://huggingface.co/NexaAIDev/Octopus-v2

论文阅读

语言模型已在各种软件应用程序中显示出有效性, 特别是与自动工作流程相关的任务。这些模型拥有 调用函数的关键能力,这对于创建人工智能代理至关重要。尽管云环境下大规模语言模型拥有高性能,它们是通常与对隐私和成本的担忧相关。当前设备上的型号函数调用面临延迟和准确性问题。

我们的研究提出了一个新的使具有20亿个参数的设备上模型能够超越GPT-4在准确性和延迟方面的性能,并减少上下文长度增加95%。与基于RAG的函数调用的Llama-7B机制相比,我们的方法将延迟提高了35倍。该方法减少了延迟达到适合在各种边缘设备上部署的水平生产环境,与现实世界应用程序的性能要求保持一致。

上图展示了使用Octopus模型的智能手机中的自动化工作流。

方法介绍

为了更好地适应移动设备的需求,研究团队专为Android系统打造了Octopus-V2-2B版本,力求在Android设备上实现无缝对接,应用场景涵盖了从系统管理到多设备协同工作的广泛领域。

Octopus-V2-2B展现出了在复杂场景下生成独立、嵌套和并行函数调用的能力,充分体现了模型的高度灵活性和实用性。

在模型训练与数据集构建方面,Octopus-V2-2B独树一帜地引入了功能Token策略,并将其贯穿于训练和推理全过程。研究团队通过精心设计的三步走策略构造高质量数据集:

  • 首先生成与任务相关的查询及相应函数调用参数;

  • 其次,利用适当函数组件生成无关查询以提高模型的区分能力;

  • 最后,依托Google Gemini保障数据准确性和完整性。

实验期间,团队特意针对Android API进行深入研究,并以20个详尽描述为蓝本训练模型,其中一个实例便是用于根据分类、地理位置和语言筛选实时新闻。

模型细节

在模型开发和训练上,Octopus-V2-2B选用Google Gemma-2B作为预训练模型基础,并探索了完整模型训练和LoRA模型训练两种方式。两者均采用AdamW优化器,并精细调整学习率、warm-up步骤以及线性学习率调度器。特别是LoRA模型训练,还包括了特定模块和参数的定制化设置,以解决传统RAG方法中可能存在的大量函数参数输入问题。

实验对比

上图展示了基准精度分析包括使用RAG的lama-7b,使用RAG的GPT-3.5, GPT-3.5, GPT-4和Octopus系列为Octopus-0, Octopus-1, Octopus2和Octopus-3。

Octopus模型之间的区别来自于数据集的大小和训练方法。最初的Octopus-0模型是使用1K数据的全模型方法进行训练的每个API的点数。Octopus-1虽然每个API也使用1K个数据点,但使用LoRA进行训练。Octopus-1,Octopus-2遵循完整的模型训练,但减少了数据点分别是500和100。

上图为基准模型的延迟分析包括带有RAG的Llama-7B和GPT-3.5, GPT-3.5, GPT-4,Octopus系列型号,标记为Octopus-0,Octopus-1, Octopus2号和Octopus3号。Octopus模型之间的区别来自于数据集大小和训练方法。原始的Octopus-0模型是使用完整模型方法进行训练的,每个API 1K数据点。Octopus-1在每个API也使用1K个数据点的同时,使用LoRA方法。Octopus-2和Octopus-3遵循完整的模型训练,但减少了数据 分别为500分和100。

总结

Octopus V2端侧AI模型的诞生无疑是人工智能技术发展的一大里程碑,其在保证高精度的同时大幅提升了推理速度,为移动端智能应用带来了无限可能性。通过深入洞察与技术创新,斯坦福大学的研究团队成功推动了端侧AI模型的发展,有力促进了人工智能技术在更多终端设备上的广泛应用,也为企业和个人提供了更为普惠、高效的人工智能解决方案。

这篇关于斯坦福发布端侧AI模型Octopus V2:推理比GPT-4快168%,准确率超Llama7B的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/913512

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

AI儿童绘本创作

之前分享过AI儿童绘画的项目,但是主要问题是角色一致要花费很长的时间! 今天发现了这款,非常奈斯! 只需输入故事主题、风格、模板,软件就会自动创作故事内容,自动生成插画配图,自动根据模板生成成品,测试效果如下图。 变现方式:生成儿童绘本发布到各平台,吸引宝妈群体进私域。  百度网盘 请输入提取码百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

【新闻】AI程序员要来了吗?阿里云官宣

内容提要 6 月 21 日,在阿里云上海 AI 峰会上,阿里云宣布推出首个AI 程序员。 据介绍,这个AI程序员具备架构师、开发工程师、测试工程师等多种岗位的技能,能一站式自主完成任务分解、代码编写、测试、问题修复、代码提交整个过程,最快分钟级即可完成应用开发,大幅提升研发效率。 近段时间以来,有关AI的实践应用突破不断,全球开发者加速研发步伐。有业内人士坦言,随着大模型性能逐渐提升,AI应

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

WordPress网创自动采集并发布插件

网创教程:WordPress插件网创自动采集并发布 阅读更新:随机添加文章的阅读数量,购买数量,喜欢数量。 使用插件注意事项 如果遇到404错误,请先检查并调整网站的伪静态设置,这是最常见的问题。需要定制化服务,请随时联系我。 本次更新内容 我们进行了多项更新和优化,主要包括: 界面设置:用户现在可以更便捷地设置文章分类和发布金额。代码优化:改进了采集和发布代码,提高了插件的稳定