MemGPT: Towards LLMs as Operating Systems

2023-10-20 19:45

本文主要是介绍MemGPT: Towards LLMs as Operating Systems,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文是LLM系列文章,针对《MemGPT: Towards LLMs as Operating Systems》的翻译。

MemGPT:将LLM作为操作系统

  • 摘要
  • 1 引言
  • 2 MEMORY-GPT (MEMGPT)
  • 3 实验
  • 4 相关工作
  • 5 结论要点和未来方向
    • 5.1 局限性

摘要

大型语言模型(LLM)已经彻底改变了人工智能,但受到有限上下文窗口的限制,阻碍了它们在扩展对话和文档分析等任务中的实用性。为了能够在有限的上下文窗口之外使用上下文,我们提出了虚拟上下文管理,这是一种从传统操作系统中的分层内存系统中汲取灵感的技术,通过在快内存和慢内存之间的数据移动来提供大内存资源的外观。使用此技术,我们介绍了MemGPT(Memory GPT),这是一个智能管理不同内存层的系统,以便在LLM的有限上下文窗口内有效地提供扩展上下文,并利用中断来管理其自身和用户之间的控制流。我们在两个领域评估了我们受操作系统启发的设计,在这两个领域,现代LLM的有限上下文窗口严重阻碍了它们的性能:文档分析,其中MemGPT能够分析远远超过底层LLM上下文窗口的大型文档,以及多会话聊天,在多会话聊天中,MemGPT可以创建会话代理,并通过与用户的长期互动而动态发展。我们在https://memgpt.ai上发布我们的实验MemGPT代码和数据。

1 引言

2 MEMORY-GPT (MEMGPT)

3 实验

4 相关工作

5 结论要点和未来方向

在本文中,我们介绍了MemGPT,这是一种受操作系统启发的新型LLM系统,用于管理大型语言模型的有限上下文窗口。通过设计类似于传统操作系统的内存层次结构和控制流,MemGPT为LLM提供了更大上下文资源的假象。这种受操作系统启发的方法在两个领域进行了评估,其中现有的LLM性能受到有限上下文长度的约束:文档分析和会话代理。对于文档分析,MemGPT可以通过有效地在内存中和内存外分页相关上下文来处理远远超出当前LLM上下文限制的冗长文本。对于会话代理,MemGPT能够在扩展对话中保持长期记忆、一致性和可进化性。总的来说,MemGPT证明,即使受到固定上下文长度的限制,分层内存管理和中断等操作系统技术也可以释放LLM的潜力。这项工作为未来的探索开辟了许多途径,包括将MemGPT应用于其他具有海量或无限上下文的领域,集成数据库或缓存等不同的内存层技术,以及进一步改进控制流和内存管理策略。通过将操作系统架构的概念桥接到人工智能系统中,MemGPT代表了一个很有前途的新方向,可以在LLM的基本极限内最大限度地提高其能力。

5.1 局限性

我们的参考实现利用了专门针对函数调用进行微调的OpenAI GPT-4模型。虽然OpenAI模型的内部工作方式是专有的,没有公开披露,但OpenAI的API文档指出,当使用函数微调模型时,提供的函数模式会转换为系统消息,该模型经过训练,可以通过微调过程进行解释。虽然已经针对函数调用进行了微调的GPT模型仍然需要解析器来验证输出是否为有效的函数语法,但我们观察到,GPT-4函数微调模型很少在MemGPT函数集上出现语法或语义错误,而GPT-3.5微调模型始终生成不正确的函数调用,或试图不正确地使用函数。同样,我们还发现,最流行的Llama 2 70B模型变体(即使是那些针对函数调用进行微调的变体)也会持续生成不正确的函数调用,甚至在提供的模式之外产生幻觉。目前,只有使用专门的GPT-4模型才能实现合理的性能,然而,我们预计,未来的开源模型最终会通过微调(例如,在更大的函数调用数据集或更专业的函数调用集上)、提示工程或提高基础模型的质量,提高MemGPT风格的操作。尽管如此,目前对专有闭源代码模型性能的依赖仍然是这项工作的一个重大限制。

这篇关于MemGPT: Towards LLMs as Operating Systems的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/249342

相关文章

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

[论文笔记]QLoRA: Efficient Finetuning of Quantized LLMs

引言 今天带来LoRA的量化版论文笔记——QLoRA: Efficient Finetuning of Quantized LLMs 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 我们提出了QLoRA,一种高效的微调方法,它在减少内存使用的同时,能够在单个48GB GPU上对65B参数的模型进行微调,同时保持16位微调任务的完整性能。QLoRA通过一个冻结的4位量化预

阅读笔记(四)NoSQL的选择指引《NoSQL database systems: a survey and decision guidance》

一. 前言   《NoSQL database systems: a survey and decision guidance》是一篇很好的综述类论文,详细的论述了NoSQL的特点和各种不同NoSQL数据库的选择依据。   传统的关系型数据库(relational database management systems ,RDBMSs)可以在保证一致性、可靠性、稳定性的前提下提供强有力的数据存储

风趣图解LLMs RAG的15种设计模式-第二课

全部用的是Midjourney连续性一致性绘图画成

开源模型应用落地-LlamaIndex学习之旅-LLMs-集成vLLM(二)

一、前言     在这个充满创新与挑战的时代,人工智能正以前所未有的速度改变着我们的学习和生活方式。LlamaIndex 作为一款先进的人工智能技术,它以其卓越的性能和创新的功能,为学习者带来前所未有的机遇。我们将带你逐步探索 LlamaIndex 的强大功能,从快速整合海量知识资源,到智能生成个性化的学习路径;从精准分析复杂的文本内容,到与用户进行深度互动交流。通过丰富的实例展示和详细的操作指

如何使用未标注数据对LLMs进行微调

Abstract 本研究专注于利用和选择大量的未标注开放数据来对预训练语言模型进行预微调。目标是尽量减少后续微调中对成本高昂的特定领域数据的需求,同时达到期望的性能水平。尽管许多数据选择算法是为小规模应用设计的,这使得它们不适用于作者的场景,但一些新兴方法确实适用于语言数据规模。然而,它们通常优先选择与目标分布对齐的数据。当从零开始训练模型时,这种策略可能很有效,但当模型已经在一个不同的分布

大模型LLMs很火,作为新生小白应该怎么入门 LLMs?是否有推荐的入门教程推荐?

很明显,这是一个偏学术方向的指南要求,所以我会把整个LLM应用的从数学到编程语言,从框架到常用模型的学习方法,给你捋一个通透。也可能是不爱学习的劝退文。 通常要达到熟练的进行LLM相关的学术研究与开发,至少你要准备 数学、编码、常用模型的知识,还有LLM相关的知识的准备。 TL;DR 要求总结: 数学知识:线性代数、高数、概率开发语言:Python, C/C++开发框架:Numpy/Pyt

Large Language Models(LLMs) Concepts

1、Introduction to Large Language Models(LLM) 1.1、Definition of LLMs Large: Training data and resources.Language: Human-like text.Models: Learn complex patterns using text data. The LLM is conside

A Tutorial on Near-Field XL-MIMO Communications Towards 6G【论文阅读笔记】

此系列是本人阅读论文过程中的简单笔记,比较随意且具有严重的偏向性(偏向自己研究方向和感兴趣的),随缘分享,共同进步~ 论文主要内容: 建立XL-MIMO模型,考虑NUSW信道和非平稳性; 基于近场信道模型,分析性能(SNR scaling laws,波束聚焦、速率、DoF) XL-MIMO设计问题:信道估计、波束码本、波束训练、DAM XL-MIMO信道特性变化: UPW ➡ NU

AI推介-大语言模型LLMs论文速览(arXiv方向):2024.08.10-2024.08.15

文章目录~ 1.W-RAG: Weakly Supervised Dense Retrieval in RAG for Open-domain Question Answering2.Dynamic Adaptive Optimization for Effective Sentiment Analysis Fine-Tuning on Large Language Models3.Fact