GPT-4o与Gemini 1.5:大语言模型的上下文记忆能力评估

2024-06-12 17:04

本文主要是介绍GPT-4o与Gemini 1.5:大语言模型的上下文记忆能力评估,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

GPT-4o与Gemini 1.5:大语言模型的上下文记忆能力评估

在大语言模型(LLM)的应用中,能够在大量上下文信息中找到并理解详细信息变得越来越重要。所谓的“大海捞针”测试便是衡量LLM在此类任务中表现的关键基准。在本文中,我将对OpenAI和Google的顶级LLM进行独立分析,测量它们基于上下文的理解能力。

什么是“大海捞针”测试?

“大海捞针”测试是针对大语言模型的一种评估方法,测试过程中会将特定信息(“针”)嵌入一大段无关文本(“大海”)中。然后,LLM需要回答一个问题,该问题要求从大量上下文中提取“针”信息。这种测试用于评估LLM的上下文理解能力和信息检索能力。在开发基于上下文的LLM应用程序时,这一能力至关重要。

随着自定义知识的集成变得越来越流行,所谓的检索增强生成(RAG)系统也随之兴起。为了进一步推动长上下文窗口的趋势,Google最近宣布了Gemini模型的新功能,可以为单个查询输入100万个tokens。

数据集生成

我们需要一个脚本,用于创建“针在大海中”数据集。该脚本允许我输入两个关键元素:

  1. 上下文(大海): 这是嵌入独特信息的文本。
  2. 独特信息(针): 这是需要在大量上下文中识别的具体信息。

数据集生成过程如下:

  1. 起点选择: 脚本首先在大段文本中随机选择一个起点。这个起点通常在文本的第10%到第40%之间。
  2. 针的放置: 然后在大海中插入独特信息(针)。它的位置也随机分布,但限制在大海长度的第20%到第80%之间。

一般来说,LLM最容易记住提示的开始和结尾信息。这个算法策略性地将针放置在上下文的特定百分比范围内,以确保评估能够捕捉模型识别和提取全范围文本数据的能力,而不仅仅是从提示更容易记住的边缘信息中提取。

以下是数据集生成算法的代码片段:

def create_haystack_with_needle(context: str, needle: str) -> str:import random# 确定大海的长度和针的位置context_length = len(context)start_pos = random.randint(int(context_length * 0.1), int(context_length * 0.4))insert_pos = random.randint(int(context_length * 0.2), int(context_length * 0.8))# 创建包含针的上下文haystack_with_needle = context[:insert_pos] + needle + context[insert_pos:]return haystack_with_needle

评估方法

在此次评估中,我使用了《哈利·波特》作为上下文(大海),而针则是一个虚构的电话号码。我为每个上下文长度(包括1000、2000、4000、8000、12000和16000字符)创建了100个大海。
包含1000字符的一个大海的示例,其中在第80个百分位位置插入了针(黄色部分)

context = "在哈利·波特的故事中,有一个重要的电话..."
needle = "123-456-7890"
haystack_with_needle = create_haystack_with_needle(context, needle)

不同的LLM任务是返回虚构电话号码。回复中是否包含虚构电话号码用于标记模型的回答准确性。使用的提示如下:

def create_needle_prompt(needle_text: str) -> str:prompt = f'''##### INSTRUCTION #####What is the fictive phone number to Lars Wiik according to the context?Only provide me what I want, nothing else.You can only respond with at max 20 words.##### CONTEXT #####{needle_text}'''return prompt

性能结果

此次评估包含以下模型:

  • gpt-4o-2024–05–13
  • gpt-4-turbo-2024–04–09
  • gpt-4–0613
  • gpt-3.5-turbo-0125
  • gemini-1.5-pro-preview-0514
  • gemini-1.5-flash-preview-0514
  • gemini-1.0-pro-002

每个模型都在不同上下文长度(1k、2k、4k、8k、12k、16k)上运行100次不同的“大海”测试。以下是结果准确率的折线图:

注意:你看不到gpt-4o和gpt-4–0613,因为它们被gpt-4-turbo-2024–04–09(100%准确率)隐藏了!

随着上下文窗口变长,由于噪声增加,提取特定信息变得更加困难。因此,性能预期会随着上下文窗口的增大而下降。从图中可以看出,OpenAI的模型在性能上与Google的模型有明显区别。Google的模型在8k上下文长度后准确率趋于平稳,约为50%。而OpenAI的模型在此测试中表现明显出色,其中gpt-4o、gpt-4-turbo-2024–04–09和gpt-4–0613是表现最好的模型。

结论

“针在大海中”评估可以用于测量大语言模型在使用长上下文时的理解和信息检索能力。在此次分析中,我们观察到OpenAI的模型和Google的Gemini系列在性能上的差异,其中OpenAI的gpt-4、gpt-4o和gpt-4-turbo得分最高。尽管Google最近增强了Gemini的能力,使其能够处理多达100万个tokens,但OpenAI的模型显示出更一致的能力,从大文本中准确检索特定信息。

对于用户和开发者来说,模型的选择可能取决于他们应用的具体需求。尽管如此,这些评估提供了宝贵的见解,帮助我们理解这些先进语言模型在复杂任务中的实际表现。未来,随着技术的进一步发展和改进,我们期待看到更多的创新和性能提升。

这篇关于GPT-4o与Gemini 1.5:大语言模型的上下文记忆能力评估的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1054808

相关文章

C语言线程池的常见实现方式详解

《C语言线程池的常见实现方式详解》本文介绍了如何使用C语言实现一个基本的线程池,线程池的实现包括工作线程、任务队列、任务调度、线程池的初始化、任务添加、销毁等步骤,感兴趣的朋友跟随小编一起看看吧... 目录1. 线程池的基本结构2. 线程池的实现步骤3. 线程池的核心数据结构4. 线程池的详细实现4.1 初

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费