Knowledge Editing for Large Language Models: A Survey

2023-11-09 00:15

本文主要是介绍Knowledge Editing for Large Language Models: A Survey,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文是LLM系列文章,针对《Knowledge Editing for Large Language Models: A Survey》的翻译。

大型语言模型的知识编辑研究综述

  • 摘要
  • 1 引言
  • 2 背景
  • 3 问题描述
  • 4 评估指标
  • 5 方法
  • 6 数据集
  • 7 应用
  • 8 讨论
  • 9 结论

摘要

大型语言模型(LLM)最近改变了学术界和工业界的格局,因为它们具有基于丰富的知识和推理能力理解、分析和生成文本的非凡能力。然而,LLM的一个主要缺点是,由于其前所未有的参数数量,其预训练的计算成本巨大。当经常需要将新知识引入预先训练的模型中时,这种劣势会加剧。因此,必须开发有效和高效的技术来更新预先训练的LLM。传统方法通过直接微调将新知识编码在预先训练的LLM中。然而,天真地重新训练LLM可能是计算密集型的,并且有可能退化与模型更新无关的有价值的预先训练的知识。最近,基于知识的模型编辑(KME)引起了越来越多的关注,其目的是精确地修改LLM以包含特定知识,而不会对其他无关知识产生负面影响。在本次综述中,我们旨在全面深入地概述KME领域的最新进展。我们首先介绍了KME的一般公式,以包含不同的KME策略。之后,我们基于如何将新知识引入预先训练的LLM,提供了KME技术的创新分类,并研究了现有的KME策略,同时分析了每个类别方法的关键见解、优势和局限性。此外,还相应地介绍了KME的代表性度量、数据集和应用。最后,我们对KME的实用性和剩余挑战进行了深入分析,并为该领域的进一步发展提出了有前景的研究方向。

1 引言

2 背景

3 问题描述

4 评估指标

5 方法

6 数据集

7 应用

8 讨论

9 结论

在这项调查中,我们对基于知识的模型编辑(KME)技术进行了全面深入的回顾,该技术用于在预先训练的LLM中精确有效地更新新知识。我们首先将KME问题公式化为一个约束优化目标,同时确保编辑的准确性和保留性,这通常包括不同的KME策略。然后,我们对KME的评估指标进行了概述,揭示了编辑模型的理想属性。随后,我们提出了一个结构化的分类框架来系统地对现有的KME技术进行分类。在每一类中,我们概述了核心挑战,阐述了具有代表性的方法,并讨论了它们的优势和劣势。此外,我们总结了广泛用于评估KME技术的数据集,强调某些技术需要特定的数据集结构来进行训练或评估。为了激励研究人员设计更实用的实现,我们还重点介绍了KME技术在现实世界中的应用。最后,我们确定了未来研究的几个潜在挑战,并提供了有助于该领域进一步发展的有见地的方向。

这篇关于Knowledge Editing for Large Language Models: A Survey的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/373215

相关文章

shader language学习(1)——shader language简介背景

shader language,称为着色语言,shade在英语是阴影、颜色深浅的意思。shader language基于物体本身属性和光照条件,计算美格橡塑的颜色值。 实际上这种解释具有明显的时代局限性,在GPU编程发展的早期,shader language的提出目标是加强对图形处理算法的控制,所以对该语言的定义也针对于此。但随着技术的进步,目前的shader language早已经用于通用计算

Retrieval-Augmented Generation for Large Language Models A Survey

Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 文章目录 Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 Abstract背景介绍 RAG概述原始RAG先进RAG预检索过程后检索过程 模块化RAGMo

AI 大模型企业应用实战(10)-LLMs和Chat Models

1 模型 来看两种不同类型的模型--LLM 和聊天模型。然后,它将介绍如何使用提示模板来格式化这些模型的输入,以及如何使用输出解析器来处理输出。 LangChain 中的语言模型有两种类型: 1.1 Chat Models 聊天模型通常由 LLM 支持,但专门针对会话进行了调整。提供者 API 使用与纯文本补全模型不同的接口。它们的输入不是单个字符串,而是聊天信息列表,输出则是一条人工智能

OSS报错The difference between the request time and the current time is too large

目录 一、问题描述二、问题原因三、解决方法 一、问题描述 文件上传阿里云 OSS 报错: The difference between the request time and the current time is too large 二、问题原因 请求发起的时间超过 OSS 服务器当前时间 15 分钟,OSS 判定该请求无效,返回报错。 三、解决方法 OSS

Kivy tutorial 008: More kv language

Kivy tutorial 008: More kv language – Kivy Blog Central themes: Event binding and canvas instructions in kv language 中心主题: 事件绑定 和 kv语言里的画布结构 This tutorial directly follows on from the previous, so s

阅读笔记——《Large Language Model guided Protocol Fuzzing》

【参考文献】Meng R, Mirchev M, Böhme M, et al. Large language model guided protocol fuzzing[C]//Proceedings of the 31st Annual Network and Distributed System Security Symposium (NDSS). 2024.(CCF A类会议)【注】本

从同—视角理解扩散模型(Understanding Diffusion Models A Unified Perspective)

从同—视角理解扩散模型 Understanding Diffusion Models A Unified Perspective【全公式推导】【免费视频讲解】 B站视频讲解 视频的论文笔记 从同一视角理解扩散模型【视频讲解笔记】 配合视频讲解的同步笔记。 整个系列完整的论文笔记内容如下,仅为了不用—一回复,共计14个视频讲解笔记,故设定了一个比较低的价格(粉丝仅6毛),大家可以自取。

Autoencoder(AE)、Variational Autoencoder(VAE)和Diffusion Models(DM)了解

Autoencoder (AE) 工作原理: Autoencoder就像一个数据压缩机器。它由两部分组成: 编码器:将输入数据压缩成一个小小的代码。解码器:将这个小代码还原成尽可能接近原始输入的数据。 优点和应用: 简单易懂:用于学习数据的特征和去除噪声。应用场景:例如可以用来缩小图像的大小但保留关键特征,或者去除文本数据中的错误。 挑战: 数据损坏:如果输入数据太乱,编码器可能无法有

Mistral AI最新力作——Mistral Large媲美GPT-4

Mistral AI自豪地宣布,他们的最新力作——Mistral Large,已经正式面世。这款尖端的文本生成模型不仅在多语言理解上表现出色,更在推理能力上达到了顶级水平。Mistral Large能够处理包括文本理解、转换和代码生成在内的复杂多语言推理任务。 Mistral Large(预训练版本)与其他顶级语言模型(如 GPT-4、Claude 2、Gemini Pro 1.0、GPT

浅谈 Knowledge-Injected BERTs

1. 序 在当下的 NLP 领域,BERT是一个绕不过的话题。 自从2018年底横空出世以来,它以势不可挡的态势横扫了整个GLUE榜单,将基准推进到80%的水平线,在SQuAD1.1中全部指标超越人类水平。在使用其预训练的参数后,几乎所有的下游任务都获得了相当的增益(当然,大量参数随之带来的也有运算效率的下降),自此开创了大语料无监督任务的预训练模型时代,自成一个山门,史称Bertology。