能在手机上运行,仅仅0.5B大小的小语言模型MobiLlama

2024-02-29 06:44

本文主要是介绍能在手机上运行,仅仅0.5B大小的小语言模型MobiLlama,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


aca4dd793755ee5ce30eb13be6260763.jpeg

模型介绍

该模型基于LLaMA-7B架构设计,旨在能够在边缘设备上高效运行,无需将数据发送到远程服务器或云端处理。如智能手机、平板电脑、智能手表等。

MobiLlama模型虽然体积小、对资源的需求低,但仍能提供高精度的语言理解和生成能力。

项目还提供了在安卓上运行MobiLlama模型的方法和安装包下载链接。mbzuaiac-my.sharepoint.com/:f:/g/personal…

主要能力

1、高精度的语言理解与生成:即便参数规模相对较小(0.5亿参数),MobiLlama也能高效处理自然语言理解和生成任务,如文本摘要、问答系统、自然语言推理等。

2、轻量级设计:通过优化模型架构和采用参数共享技术,MobiLlama实现了模型大小和计算资源需求的显著减少,使其适合在计算能力有限的设备上运行。

3、资源效率高:MobiLlama在设计时考虑了能效和内存使用效率,使其在执行任务时消耗更少的电力和存储空间,适合长时间运行在移动设备上。

4、适应性强:由于其轻量级和高效的特性,MobiLlama可以轻松集成到各种应用中,从智能助手到语言翻译工具,都能从其快速、精确的处理能力中受益。

5、全透明:MobiLlama项目开源,提供了模型的训练数据、代码和训练过程的详细信息,使其他研究者和开发者可以完全了解模型的工作原理,有助于促进技术的进步和应用的开发。

模型版本

MobiLlama项目提供了不同配置的模型版本,包括0.5B、0.8B、1B及其聊天版本的模型。

0.5B:这个版本的模型有0.5亿参数,是设计中最轻量级的一个,旨在提供较高的效率和速度,同时保持良好的性能,特别适合在资源受限的设备上使用。

0.8B:0.8亿参数的模型在0.5B的基础上增加了参数,以改进模型的性能和理解能力,适合于需要更复杂处理能力的场景。

1B:1亿参数的模型进一步增强了模型的能力,能够处理更复杂的语言理解和生成任务,适用于对性能要求更高的应用。

数据集

项目使用了预处理过的Amber数据集,总计约1.2万亿token,数据来源包括Arxiv、Book、C4、Refined-Web、StarCoder、StackExchange和Wikipedia等,总大小约为8TB。

评估结果

基准测试性能

MobiLlama模型在包括HellaSwag、TruthfulQA、MMLU、ARC_C、CrowsPairs、PIQA、RACE、SIQA、WinoGrande等测试中的性能表现,与其他模型进行了比较。在这些基准测试中,MobiLlama表现出色,尤其是在0.5B和0.8B配置下,展现了其高效处理复杂语言任务的能力。具体的评估结果如下:

MobiLlama (0.5B):在多项任务中取得了优异的成绩,平均得分达到46.00,突出显示了模型的高效率和准确性。
MobiLlama (0.8B):进一步提升了性能,平均得分达到46.67,表明了通过增加模型规模可以进一步提升性能。

比较分析

与其他模型相比,如GPT-NEO、TinyStarCoder、Cerebras-GPT等,MobiLlama在相同或更小的参数规模下,能够实现更高的准确度和效率。这些结果凸显了MobiLlama在设计上的优势,即通过参数共享和模型优化,实现了在资源有限的设备上运行高性能模型的目标。

具体性能对比

GPT-NEO (0.15B):平均得分为40.93。
TinyStarCoder (0.17B):平均得分为37.86。
Cerebras-GPT (0.26B):平均得分为40.69。

MobiLlama的性能优于这些模型,展现了其作为小型语言模型的竞争力和潜力。

模型下载:huggingface.co/MBZUAI

GitHub:https://github.com/mbzuai-oryx/MobiLlama

论文:arxiv.org/abs/2402.16840

在线体验:845b645234785da51b.gradio.live

这篇关于能在手机上运行,仅仅0.5B大小的小语言模型MobiLlama的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/757905

相关文章

C语言中联合体union的使用

本文编辑整理自: http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=179471 一、前言 “联合体”(union)与“结构体”(struct)有一些相似之处。但两者有本质上的不同。在结构体中,各成员有各自的内存空间, 一个结构变量的总长度是各成员长度之和。而在“联合”中,各成员共享一段内存空间, 一个联合变量

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

eclipse运行springboot项目,找不到主类

解决办法尝试了很多种,下载sts压缩包行不通。最后解决办法如图: help--->Eclipse Marketplace--->Popular--->找到Spring Tools 3---->Installed。

22.手绘Spring DI运行时序图

1.依赖注入发生的时间 当Spring loC容器完成了 Bean定义资源的定位、载入和解析注册以后,loC容器中已经管理类Bean 定义的相关数据,但是此时loC容器还没有对所管理的Bean进行依赖注入,依赖注入在以下两种情况 发生: 、用户第一次调用getBean()方法时,loC容器触发依赖注入。 、当用户在配置文件中将<bean>元素配置了 lazy-init二false属性,即让

21.手绘Spring IOC运行时序图

1.再谈IOC与 DI IOC(lnversion of Control)控制反转:所谓控制反转,就是把原先我们代码里面需要实现的对象创 建、依赖的代码,反转给容器来帮忙实现。那么必然的我们需要创建一个容器,同时需要一种描述来让 容器知道需要创建的对象与对象的关系。这个描述最具体表现就是我们所看到的配置文件。 DI(Dependency Injection)依赖注入:就是指对象是被动接受依赖类

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

java中查看函数运行时间和cpu运行时间

android开发调查性能问题中有一个现象,函数的运行时间远低于cpu执行时间,因为函数运行期间线程可能包含等待操作。native层可以查看实际的cpu执行时间和函数执行时间。在java中如何实现? 借助AI得到了答案 import java.lang.management.ManagementFactory;import java.lang.management.Threa

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

C语言 将“China”译成密码

将“China”译成密码,密码规律是:用原来的字母后面的第4个字母代替原来的字母。例如,字母“A”后面的第4个字母是“E”,用“E”代替“A”。因此,“China”应译为“Glmre”。编译程序用付赋初值的方法使c1,c2,c3,c4,c5这五个变量的值分别为“C”,“h”,“i”,“n”,“a”,经过运算,使c1,c2,c3,c4,c5分别变成“G”,“l”,“m”,“r”,“e”。分别用put