《LLM in a Flash: Efficient Large Language Model Inference with Limited Memory》论文解读

本文主要是介绍《LLM in a Flash: Efficient Large Language Model Inference with Limited Memory》论文解读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

作者:Gary Li

时间:2024-1-9

(由于我不是研究大模型的,对AI也知之甚少,我主要关注存储相关的内容。并且本文并未正式发表有许多不规范和写作表达不清的地方,因此有许多我不理解的地方,也有许多我按照自己的理解记下的内容,如有错误请见谅。)

背景:大模型难以运行在内存受限的边端设备上(使用半浮点精度加载有7B参数的模型时需要约14GB内存)。当可用内存小于模型参数规模,会导致大量的I/O开销。如下图所示,当可用内存只有模型参数量大小一半时,IO加载占据了延迟中的绝大部分。因为在每次推理时,可能都重新加载整个模型(LRU会把最早的参数剔除,因此如果顺序读取参数,缓存永远都是miss)

机会:

  1. FFN具有90%以上的稀疏性(ReLU 激活函数自然会在 FFN 的中间输出中产生 90% 以上的稀疏性,利用这一特性可以减少这些稀疏输出的后续层的内存占用)。因此有些数据可以不用读取。
  2. 当充分利用Flash的性能时(大粒度连续读取并充分并发时),闪存的性能可以匹配上稀疏LLM模型的推理速度

思路:

总体思路就是减少数据读取量。主要有以下几个方法:

  1. 压缩:通过预测技术,不加载为0的参数或者输出为0的参数。
  2. 缓存:仅加载最近几个token的参数,并复用最近计算过的token的激活
  3. 提高读效率:将上投影层和下投影层的行和列连接起来存储,以便从闪存中读取更大的连续块。

具体方案:

1. 压缩:动态加载FFN(Feed-Forward Network)的非稀疏段到内存中,注意力网络的权重驻留在内存中(约占1/3),避免加载整个模型。具体做法是通过一个低秩预测器(low-rank predictor)来确定0元素,如下图所示。(不是很懂具体原理和流程,原文介绍得很粗糙)

2. 缓存:采用了一个滑动窗口,如下图所示。滑动窗口的目的是仅在内存中保存最近几个输入数据的神经元数据(不懂指的什么,原文就写了一个neuron data)。以此做到选择性地加载神经元,并及时清理窗口外的非活动神经元。

3. 大粒度:该论文观察到了一个现象,在一些模型(OPT、Falcon)中,上投影的第i列和下投影的第i行共享第i个中间神经元的激活一致(不懂)。因此为了提高I/O的粒度,将这些对应的列和行一起存储在闪存中,将数据合并为一个更大的块。

此外还观察到存在神经元同激活现象,即神经元总是与其他一些神经元共同激活。如下图所示,每个神经元有几乎100%的概率与第一个同激活神经元共同激活,第4个同激活神经元也有平均86%的概率共同得到激活。因此将他们集中存储起来,当一个神经元激活时同时预读共同激活的神经元。然而他们并没有使用这一特性,因为有一些极其活跃的神经元总是与其他神经元共同激活,因此会导致大量额外的读取,造成反作用。

4. 为了提高内存管理的效率,避免内存中神经元删除和插入的开销,采用了一种简单低开销的神经元管理方法。如下图所示,用数组存储神经元。当删除了一个神经元时,从数组末尾拷贝一个神经元到删除位置,插入时就可以直接向末尾插入即可。(但是这样的话数据就是乱的,检索开销不会很高吗;而且还是会导致额外的数据拷贝,直接向空位插不是更好?)

实验:

1. Sagg(k)代表在处理第k个输入token时的累计神经元使用量(不太理解k到底代表什么)。Sagg(k+1)-Sagg(k)代表窗口每向后滑动一次需要新加载的神经元。从下图可以看出,当窗口越大时,每次需要加载的新神经元就越少。这个很好理解,相当于缓存越大命中率就越高需要加载的数据就越少。因此在内存允许的情况下窗口大小越大越好。

2. 实验平台:Apple M1 Max,1TB SSD,内存控制为模型大小的一半。可以看出本文的方法可以减少大量的数据传输(Flash->DRAM列),并且大量减少IO延迟。

思考:

  1. 这些技术看起来可以在通用场景下运用,比如不计算0的神经元?
  2. 具体的与大模型相关的部分有点难以理解,但是核心思想可以学习。首先是观察workload中是否有稀疏的数据或者可以重用的数据,降低数据的读取次数;其次是可以尝试通过降低结果精度或者额外的少量计算降低I/O次数提升总体性能;是否存在强局部性的数据,一是可以减少I/O次数,二是可以将他们集中存储提高读取速度。

这篇关于《LLM in a Flash: Efficient Large Language Model Inference with Limited Memory》论文解读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/751915

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

Python利用qq邮箱发送通知邮件(已封装成model)

因为经常喜欢写一些脚本、爬虫之类的东西,有需要通知的时候,总是苦于没有太好的通知方式,虽然邮件相对于微信、短信来说,接收性差了一些,但毕竟免费,而且支持html直接渲染,所以,折腾了一个可以直接使用的sendemail模块。这里主要应用的是QQ发邮件,微信关注QQ邮箱后,也可以实时的接收到消息,肾好! 好了,废话不多说,直接上代码。 # encoding: utf-8import lo

shader language学习(1)——shader language简介背景

shader language,称为着色语言,shade在英语是阴影、颜色深浅的意思。shader language基于物体本身属性和光照条件,计算美格橡塑的颜色值。 实际上这种解释具有明显的时代局限性,在GPU编程发展的早期,shader language的提出目标是加强对图形处理算法的控制,所以对该语言的定义也针对于此。但随着技术的进步,目前的shader language早已经用于通用计算

Retrieval-Augmented Generation for Large Language Models A Survey

Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 文章目录 Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 Abstract背景介绍 RAG概述原始RAG先进RAG预检索过程后检索过程 模块化RAGMo

google gemini1.5 flash视频图文理解能力初探(一)

市面能够对视频直接进行分析的大模型着实不多,而且很多支持多模态的大模型那效果着实也不好。 从这篇公众号不只是100万上下文,谷歌Gemini 1.5超强功能展示得知,Gemini 1.5可以一次性处理1小时的视频、11小时的音频或100,000行代码,并衍生出更多的数据分析玩法。能力覆盖: 跨模式理解和推理,当给出一部 44 分钟的巴斯特-基顿(Buster Keaton)无声电影时,该模型能准

康奈尔大学之论文审稿模型Reviewer2及我司七月对其的实现(含PeerRead)

前言 自从我司于23年7月开始涉足论文审稿领域之后「截止到24年6月份,我司的七月论文审稿GPT已经迭代到了第五版,详见此文的8.1 七月论文审稿GPT(从第1版到第5版)」,在业界的影响力越来越大,所以身边朋友如发现业界有相似的工作,一般都会第一时间发给我,比如本部分要介绍的康奈尔大学的reviewer2 当然,我自己也会各种看类似工作的论文,毕竟同行之间的工作一定会互相借鉴的,我们会学他们

自动驾驶规划中使用 OSQP 进行二次规划 代码原理详细解读

目录 1 问题描述 什么是稀疏矩阵 CSC 形式 QP Path Planning 问题 1. Cost function 1.1 The first term: 1.2 The second term: 1.3 The thrid term: 1.4 The forth term: 对 Qx''' 矩阵公式的验证 整体 Q 矩阵(就是 P 矩阵,二次项的权重矩阵)

【论文精读】分类扩散模型:重振密度比估计(Revitalizing Density Ratio Estimation)

文章目录 一、文章概览(一)问题的提出(二)文章工作 二、理论背景(一)密度比估计DRE(二)去噪扩散模型 三、方法(一)推导分类和去噪之间的关系(二)组合训练方法(三)一步精确的似然计算 四、实验(一)使用两种损失对于实现最佳分类器的重要性(二)去噪结果、图像质量和负对数似然 论文:Classification Diffusion Models: Revitalizing

【python】python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】 目录 python葡

论文阅读--Efficient Hybrid Zoom using Camera Fusion on Mobile Phones

这是谷歌影像团队 2023 年发表在 Siggraph Asia 上的一篇文章,主要介绍的是利用多摄融合的思路进行变焦。 单反相机因为卓越的硬件性能,可以非常方便的实现光学变焦。不过目前的智能手机,受制于物理空间的限制,还不能做到像单反一样的光学变焦。目前主流的智能手机,都是采用多摄的设计,一般来说一个主摄搭配一个长焦,为了实现主摄与长焦之间的变焦,目前都是采用数字变焦的方式,数字变焦相比于光学