2.6 大模型数据基础:大模型评估数据详解

2024-09-05 09:36

本文主要是介绍2.6 大模型数据基础:大模型评估数据详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本系列目录

《带你自学大语言模型》系列部分目录及计划,完整版目录见:带你自学大语言模型系列 —— 前言

第一部分 走进大语言模型(科普向)

  • 第一章 走进大语言模型

  • 1.1 从图灵机到GPT,人工智能经历了什么?——《带你自学大语言模型》系列

  • 1.2 如何让机器说人话?万字长文回顾自然语言处理(NLP)的前世今生 —— 《带你自学大语言模型》系列

第二部分 构建大语言模型(技术向)

  • 第二章 基础知识

    • 2.1 大语言模型的训练过程 —— 《带你自学大语言模型》系列

    • 2.2 大模型算法基础:Transformer —— 《带你自学大语言模型》系列

    • 2.3 大模型硬件基础:AI芯片(上篇) —— 《带你自学大语言模型》系列

    • 2.4 大模型数据基础:预训练阶段数据详解 ——《带你自学大语言模型》系列

    • 2.5 大模型数据基础:微调阶段数据详解

    • 2.6 大模型数据基础:大模型评估数据详解

    • 从LLaMa 3 技术报告,再看LLM构建过程 ——《带你自学大语言模型》系列(番外)

  • 第三章 预训练

  • 第四章 微调和对齐

  • 第五章 部署和推理

第三部分 大语言模型应用

  • 第六章 检索增强生成(RAG)
    • 6.1 RAG 技术概览,从AI搜索谈起——《带你自学大语言模型》系列

… …

写在前面

相比于研究大模型的构建、微调、应用,之前对大模型评估这一块投入较少,现在逐渐意识到它的重要性。

如果只有一个大模型,甭管评估出来好坏,你也只能用一个,但现在大模型多了,各家都说自己的好,那到底是哪个好,评估的重要性就凸显出来了。

就像现在出去买个奶茶,鲜奶茶,果茶,杨枝甘露每家都有一样的品,还都说自己是最好的,什么七窨茉莉,什么新鲜水果,什么405B,什么多模态,什么20万长文本吧啦吧啦的一堆宣传语,普通消费者光看这个,怎么知道A家的芝芝多肉葡萄和B家的超A芝士葡萄哪个好喝,怎么评估算好喝,越内卷,评估就越重要…

本篇仍然是工具属性较多,整理了大量的评估数据集来源,建议是可以收藏,有需要的时候再看,我也是这样操作的

本节目录

  • 2.6.1 评估方法

    • 2.6.1.1 代码评估
    • 2.6.1.2 人类评估
    • 2.6.1.3 模型评估
  • 2.6.2 评估数据集

    • 2.6.2.1 通用数据集
    • 2.6.2.2 考试领域
    • 2.6.2.3 学科领域
    • 2.6.2.4 自然语言理解的数据集
    • 2.6.2.5 推理评估数据集
    • 2.6.2.6 知识评估数据集
    • 2.6.2.7 长文本评估数据集
    • 2.6.2.8 工具评估数据集
    • 2.6.2.9 Agent评估数据集
    • 2.6.2.10 代码评估数据集
    • 2.6.2.11 法律评估数据集
    • 2.6.2.12 医疗评估数据集
    • 2.6.2.13 金融评估数据集
  • 2.6.3 评估数据集的数据分布

  • 参考文献

2.6.1 评估方法

先对评估方法进行简单介绍,评估方法可以分为自动化评估和非自动化评估。自动评估又分为代码评估和模型评估,非自动评估主要是指人类评估。

2.6.1.1 代码评估

代码评估的方法包括从大模型获取结果,使用代码统计计算预定义的评估指标,通过这些指标的数值来衡量LLMs的有效性。主要的评估指标包括:准确率、F1分数、BLEU [82]、ROUGE [2]、Exact Match [3]、皮尔逊相关系数[4]等。例如,准确率可以用于分类任务中评估LLMs分类的精确度。在翻译任务中,BLEU用于评估LLMs的翻译与真实注释的相似度。

有些评估数据集不仅提供自定义计算方法,还贴心的提供了相关代码,可以直接应用于LLMs性能的评估和分析。

代码评估的适用场景主要是客观问题和预定义答案的简单主观问题,如基础知识查询和翻译练习。并不适合评估评估开放式主观问题,如涉及生成和头脑风暴的问题。

2.6.1.2 人类评估

人类评估方法包括质量评分(如QizhenGPT评估数据集[5]和CLIB数据集 [6]中所见)、质量比较评估[7]等等。

这种方法的优劣势也比较明显,优势是在开放式主观问题和缺乏标准答案的复杂问题上表现好,劣势是成本高,以及会存在主观偏见。

2.6.1.3 模型评估

模型评估是一种新方式,其中问题、参考答案、评估标准和测试模型的响应被整合到一个最优提示中。然后将这些综合信息输入模型进行评估。

这种评估方法,一般选择当前性能高的LLMs,并提供合适的评估指导。它的优势在于能够替代大量的人工,从而实现更快的评估过程。局限性在于依赖于LLMs的性能,并且可能不总是与人类价值观和判断相一致。

2.6.2 评估数据集

2.6.2.1 通用数据集

通用数据集的数据规模通常比较小,并且主要用于评估大模型两方面的表现:多功能性和指令遵循。

1、多功能性。评估它们在多个领域的一般指令上的表现。

Vicuna Evaluation[8] 评估模型在九个问题类别中的表现,使用 GPT-4 来判断输出质量,并提供对整体模型质量的初步评估。在此基础上,AlpacaEval [9] 包括来自不同数据集的指令样本,提供对不同开放式问题回答性能的更广泛评估。
BayLing-80[10] 进一步扩展了 Vicuna Evaluation,评估大型语言模型在中文和英文的通用能力和会话能力。BELLE_eval[11] 和 MT-Bench[12]采用类似的评估方法。前者旨在评估模型在遵循中文场景中的指令方面的表现,而后者专注于评估它们在英文场景中的一般表现。这些数据集中的指令数量都在1K以内,综合性方面存在一定的局限性。
SuperCLUE[13] 扩大了评估内容的规模。它作为中文通用大型语言模型的全面评估基准,旨在评估当前中文大型语言模型的有效性。任务包括多轮开放式问答和客观多项选择问答,每月更新,具有重要的参考价值。

2、指令遵循能力,尤其是复杂指令遵循。

像 Vicuna Evaluation、AlpacaEval 和 BayLing-80 结合了各种类型的指令,评估模型在理解指令要求方面的泛化能力和容量。

CELLO[14] 从「复杂任务描述和复杂输入」两个角度评估模型遵循复杂指令的能力,增强了指令的复杂性。

2.6.2.2 考试领域

考试领域的评估数据集专门用于制定来自不同国家重要考试问题的指令。在这种情况下,大型语言模型扮演考生的角色,按照规定的指导方针回答查询。主要目标是评估LLMs在理解问题意图的细微差别和它们对考试相关知识的掌握程度。

GAOKAO-Bench[15]使用中国高考(中国全国大学入学考试)问题作为评估的基础,寻求评估LLMs在各个学科的熟练程度,包括10个学科。

AGIEval[16]扩大了查询的范围,设计了以人为为中心的测试基准,包括20个官方的、公共的和严格的入学和资格考试,包括高考、美国SAT、律师考试和国家公务员考试。

M3Exam[17] 集合了多模态、多语言和多层次的多项选择题集合,来源包括九个国家的小学、中学和高中考试的考试题目,这些国家的考试题目以不同的语言区分。

2.6.2.3 学科领域

学科领域的评估数据集全面评估了大型语言模型在不同学科领域的掌握程度,包括数学、法律、心理学等多个学科。

C-CLUE[18] 作为评估古典中文语言理解的基准,主要关注基于历史知识图谱的任务,如命名实体识别(NER)和关系抽取(RE)。这个数据集主要检验个别学科的熟练程度,但在多样性方面有所限制。

MMCU[20] 包括医学、法律、心理学和教育学等学科,以衡量中文语义理解。

SCIBENCH [21] 主要应用在大学级别的科学与工程领域,要求解决与数学、物理和化学相关的具有挑战性的主观问题。

TheoremQA[22] 将焦点缩小到数学、物理、金融和计算机科学与工程(CS & EE)的350个定理。

ARB[23] 评估LLMs在文本理解和领域特定推理方面的技能。这些问题深入到数学、物理、生物学、化学和法律等学科的深厚知识。

上述数据集专注于评估特定学科的熟练程度,规模较小。下面这些数据集旨在全面评估学科能力,涵盖广泛的学科。

ScienceQA[24]收集了自然科学、社会科学和语言学的26个子课程的多项选择题。

C-Eval[25]编译了52个不同学科的问题,分为四个难度级别,全面评估模型在中文环境下的综合学科能力。

CG-Eval[26]要求LLMs准确回答跨越六个主要类别的55个子学科问题,以自动评分。

LLMEVAL-3 [19]集中评估专业知识的熟练程度,功能生成的问题来自中国教育部概述的13个学术类别和50多个子类别。它引入了“题库考试”模式。

MMLU [27]评估从传统领域如数学和历史到专业领域如法律和伦理的学科,涵盖57个学科,难度级别从小学至专业。由于MMLU的内容是英文的,CMMLU(李等人,2023d)作为其中文版本来评估中文环境下的学科知识熟练程度,涵盖67个学科。

M3KE [28] 是针对中国教育体系,收集了从小学到大学的71个学科的多项选择题。

XiezhiBenchmark [29] 覆盖了创纪录的516个不同学科,达到了大约250K个问题。

总的来说,这些学科评估数据集在数据源方面有很高的相似性,主要来源于与各自学科相关的在线材料。此外,多项选择题格式有利于自动化评估,特别受到青睐。

2.6.2.4 自然语言理解的数据集

这一类评估数据集旨在全面评估大型语言模型在自然语言理解(NLU)任务中的多方面能力,涵盖从基本的语法结构理解到高级的语义推理和上下文处理。

MCTS [30] 和RAFT[31] 作为单个NLU任务的基准测试。前者是中文文本简化最广泛的评估数据集,而后者是文本分类的基准测试。大多数数据集包含多个NLU任务。

GLUE[32] 包含九个英文NLU任务,评估LLMs在情感分析、语义匹配和文本蕴含等任务上的表现。在GLUE的基础上,SuperGLUE[33] 提高了任务难度,反映了LLMs在更广泛的语言理解方面的表现。

为了评估模型在中文环境下的NLU能力,CLUE[34] 参考GLUE构建,包含九个中文NLU任务,评估LLMs在语义匹配、文本分类和阅读理解等任务上的表现。CUGE[35] 按语言-任务-数据集结构层次组织,使用21个子数据集评估LLMs在语言理解、信息检索、问答和语言生成方面的能力。SentEval[36] 汇总了21个子任务的NLU数据集。

2.6.2.5 推理评估数据集

推理评估数据集涵盖了多步推理、决策推理、演绎推理、数学推理和其他形式推理的多样化评估方向。

推理评估数据集旨在衡量大型语言模型在逻辑推理和推理任务方面的熟练程度。Chain-of-Thought Hub[37] 精选了八个开源数据集,并通过在数学、科学和符号等领域使用few-shot CoT提示来评估LLMs的多步推理能力。

Choice-75[38] 要求LLMs在各种给定情境中选择合适的决策解决方案,评估它们在决策推理方面的竞争力。

NeuLR[39] 评估演绎推理、归纳推理和溯因推理,强调LLMs在这些不同推理方向上的能力。

关于数学领域的推理能力评估,有TabMWP[40] 、LILA[41]和miniF2F_v1[42]这几个数据集

TabMWP数据集要求LLMs基于提供的文字和表格数据进行基于表格的问答和数学推理。LILA数据集作为数学推理的综合基准,评估各种数学技能,包括基础技能、代数、微积分等。miniF2F_v1数据集汇编了奥林匹克级别的数学问题,对LLMs的数学能力提出了重大挑战。

2.6.2.6 知识评估数据集

评估知识的数据集不仅衡量大型语言模型(LLMs)的知识保持能力,还评估额外的技能,如知识分析、学习新信息和知识归纳。

LLMEVAL-2 [43] 从外部数据库构建了一个跨12个领域的知识问题库。

LMExamQA[44] 根据所需知识水平对问题进行分类,包括记忆、理解和分析。

KoLA[45] 主要检验LLMs掌握和应用世界知识的熟练程度,根据知识的认知层次结构,分为记忆、理解、应用和创造四个类别。

作为评估LLMs掌握社会知识能力的基准,SocKET[46]将知识分类为幽默与讽刺、攻击性、情感、可信度和社会事实。虽然以前的数据库从现有知识的角度评估模型,但挑战在于评估模型对完全陌生新知识的学习能力。

ALCUNA是采用knowGen方法生成新知识生成的基准数据库ALCUNA[47],用于评估和审查模型对新知识的理解、区分和关联能力。

2.6.2.7 长文本评估数据集

在长文本领域,著名数据集包括ZeroSCROLLS[48] 、L-Eval[49]、LongEval [49]和LooGLE[50],它们都专注于评估长英文文本。

ZeroSCROLLS将不同来源的数据集标准化为一致的输入格式,平均长度为10,000词,用于评估10个自然语言任务。L-Eval作为长文本语言模型的全面评估套件,涵盖从4,000到60,000词的输入长度。它包括18个多领域任务,涉及长文档的推理、问答、摘要等。

LongEval引入了两个不同难度的任务,评估LLMs在5,000到16,000词令牌长度输入中的细粒度主题检索和行检索性能。

LooGLE专注于更具挑战性的任务,评估平均长度为20,000词的多信息检索和时间线重排序任务的性能。相比之下,LongBench[51] 包括14个英文任务、5个中文任务和2个代码任务,大多数任务的平均长度在5,000到15,000词令牌之间。尽管一些模型声称支持100,000+的上下文,但上述数据集在评估超过100,000词的长文本方面存在局限性。为了解决这个问题,InfiniteBench[52] 将中英文评估的平均长度增加到200,000词,并在12个评估任务中的10个新任务中引入,以填补评估超过100,000词长文本的空白。

2.6.2.8 工具评估数据集

这一类主要是衡量大型语言模型在使用工具和调用API方面的熟练程度。

API-Bank[53] 模拟真实世界场景,建立了一个包含53种常用工具的API库供LLMs调用。设计的任务涉及API调用,旨在评估模型在特定对话环境中有效使用API来满足用户需求的能力。

APIBench[54] 为评估目的而构建,从1,645个API文档中生成了16,450条指令。这些指令被格式化以适应LLM友好的聊天交互,并配备了评估脚本。

ToolBench[55] 作为工具操作的基准测试,涵盖了在现实世界任务中使用的各种软件工具。工具调用包括单步和多步动作生成,覆盖八个子任务,包括开放天气和网络商店。

2.6.2.9 Agent 评估数据集

Agent目前是十分热门的研究方向。专门针对代理的评估数据集集中于评估LLMs作为代理的能力。

AgentBench[56] 在英语环境中进行评估。它作为首个旨在评估作为代理的LLMs性能的基准测试,涵盖了八个不同的环境,并全面考察了LLMs作为独立代理的能力。

SuperCLUE-Agent[57] 在中文环境中进行评估。该数据集通过三个核心能力和十个基础任务,评估LLMs在中文环境中作为代理的能力,涵盖工具使用、任务规划以及短期和长期记忆等方面。

2.6.2.10 代码评估数据集

评估代码的数据集旨在衡量大型语言模型(LLMs)在处理编程相关任务方面的能力,包括代码解释、代码生成、代码修正和代码优化。这些数据集主要分为两类。

第一类是单任务评估。APPS[58] 作为代码生成的基准测试,专门评估生成Python代码的能力。其他数据集,如DS-1000[59] 、HumanEval[60] 、MTPB[61] 和ODEX[62] ,以不同形式探究代码生成能力。

DS-1000引入了与七个Python库相关的数据科学问题。HumanEval使用人工编写的编程问题来评估LLMs,这在一定程度上减少了数据泄露的担忧。MTPB要求LLMs在每一步合成一个子程序,需要考虑当前任务描述和先前步骤。ODEX扩展了自然语言的种类,使用英语、西班牙语、日语和俄语描述代码意图,评估LLMs在多语言描述下生成代码的能力。

此外,BIRD [63] 是一个大规模的数据库基准测试,用于文本到SQL(结构化查询语言)任务,与之前的流行数据集如Spider 相比,它缩小了学术研究与实际应用之间的差距,提高了难度水平。

第二类是多任务评估。CodeXGLUE[64] 根据输入输出对将代码能力分为四种类型:代码-代码、文本-代码、代码-文本和文本-文本。HumanEvalPack[65] 是HumanEval的扩展,涵盖六种编程语言和三种代码任务,包括代码修复、代码注释生成和代码生成。

2.6.2.11 法律评估数据集

法律评估数据集通过提供标准化的性能评估,推动法律LLMs的研究和开发。这些数据集可以根据它们所针对的语言环境进行分类。

LAiW[66] 和LawBench[67] 是为中文语言环境设计的。LAiW作为中文法律LLMs评估的基准,专注于13个基础任务,涵盖三个法律能力领域。它比较了LLMs在NLP基础能力、基础应用能力和复杂应用能力方面的表现。LawBench以中国法律体系为基准,评估LLMs在20个任务中的法律能力,这些任务模拟了知识记忆、理解和应用,与现实世界的应用密切相关。

在英语语言环境中,LegalBench[68] 和LexGLUE[69] 是相关的。LegalBench由跨学科专家协助构建,是一个包含六种法律推理类型和162个任务的法律推理基准。LexGLUE整合了开源的英文法律数据集,作为一个评估基准,检验法律问答和分类任务。

对于多语言环境,LEXTREME[70] 和SCALE[71] 是适用的。LEXTREME将18个与法律相关的任务从11个开源数据集中划分出来,涵盖了24种语言。SCALE在四个维度上挑战当前的LLMs:处理长文档、应用法律知识、多语言理解和多任务处理。该基准源自瑞士法律体系,涉及五种语言。

2.6.2.12 医疗评估数据集

医疗评估数据集专注于检验LLMs在医疗任务,如术语解释、疾病诊断和治疗建议等方面的综合能力。这使得可以比较不同医疗模型与专业医生之间的熟练程度差距。MultiMedQA[72] 作为医疗问答的评估基准,混合了多个开源数据集和专有数据集,以评估LLMs解决医疗问题的能力。QiZhenGPT-eval[73]专注于药品适应症评估,要求LLMs确定给定药物适用的疾病。然而,单一任务数据集在评估维度上过于限制,可能无法反映其他医疗能力。因此,逐渐提出了各种综合数据集。

CBLUE[74] 是中文医疗语言理解的评估数据集,展示了使用真实医疗数据的五个医疗任务。它评估LLMs在医疗文本信息提取和医疗问答方面的能力。CMB[75] 的设计基于中文语言和文化框架,从中式医疗考试和复杂临床诊断的角度评估LLMs。HuaTuo26M-test[76] 是从多个来源随机抽样的,包括医学百科全书和知识图谱,提供了多样化的任务类型。PromptCBLUE[77] 将16种不同的医疗场景中的NLP任务转换为评估格式,形成了首个系统化的中文医疗场景基准。

2.6.2.13 金融评估数据集

金融评估数据集,与前面提到的法律和医疗评估数据集类似,专注于金融领域相关知识,评估大型语言模型处理金融文本和执行金融任务的表现。

BBF-CFLEB[78] 包含六个子数据集,用于金融任务,从多个角度策略性地评估金融模型的语言理解和语言生成能力。FinancelQ[79] 和FinEval[80] 都强调金融场景中的知识和推理能力,包含多个金融主题的多项选择题,以评估LLMs的金融知识。虽然前面的数据集针对中文环境,但FLUE[81] 是面向英语的测试基准,整合了六个金融NLP数据集,专注于金融领域的语言理解。

FinBen[82] 也是一个面向英语的金融领域基准数据集,用于评估LLMs在金融领域的能力。它汇集了35个现有数据集,涵盖了23个金融任务,分为三个难度级别:基础任务、高级认知参与和通用智能。

2.6.3 评估数据集的数据分布

在《Datasets for Large Language Models: A Comprehensive Survey》[1]这篇论文中,作者对当前的指令微调数据集做了统计与分析,整体得出以下6个结论:

(1)评估数据集的数量呈现出明显的上升趋势。具体来说,在2023年,评估数据集的数量显著增加,这反映了随着LLMs的快速迭代和模型性能的提升,需要多样化的数据集来保持同步。
在这里插入图片描述

(2)评估数据集许可证的分布:Apache-2.0和MIT这样的开放许可证提供的灵活性,对于评估数据集的广泛使用和共享至关重要,这对于推动相关研究的发展至关重要。
在这里插入图片描述

(3)大多数评估数据集的规模在0-100K的范围内,其中包含少于10K样本的数据集占总数的56.4%。这表明许多任务可以通过相对较小的数据集进行有效评估,或许主要是出于成本考虑。然而,仍有少数数据集的规模超过了1M,主要来源于网络抓取或开源数据集的整合。
在这里插入图片描述

(4)手动构建和开源数据集的整合是创建评估数据集的主要方法。手动构建通常因为精确性和与特定领域的相关性而被优先选择,而开源数据集通常用于评估的通用基准。使用模型生成的数据进行评估不太常见,因为人们担心问题的真实性和答案的准确性,通常将其作为补充方法。

在这里插入图片描述

(5)英语数据集是最普遍的,中文数据集次之,这反映了评估LLMs在这两种语言任务中的性能的关注。尽管也有涵盖其他语言的数据集,但对于资源较少的少数民族语言的资源明显有限。
在这里插入图片描述

(6)包括多个学科和任务类型的评估数据集很普遍,研究社区特别关注模型的通用性和广泛知识。数据集涵盖了传统的指令、知识领域、社会规范和几个流行的垂直领域。同时,评估数据集的领域分布仍然呈现出长尾模式,像电子商务和地球科学这样的小众领域评估资源有限。另外,像古代文本和文化这样的领域目前缺乏评估基准。
在这里插入图片描述

(7)主观问题,尤其是与自然语言理解(NLU)相关的问题,在评估数据集中占据主导地位。客观问题的数据集占少数,包括多项选择和填空格式。就评估方法而言,基于代码的评估的广泛使用归因于其适用于客观问题和简单的主观任务,在效率和一致性方面具有优势。相反,人工评估不适合广泛的任务和客观问题,由于成本考虑,因此不常使用。模型评估在一定程度上结合了基于代码的评估和人工评估的优势,可能正在成为未来主要的评估方法。
在这里插入图片描述

注:本篇的大部分内容参考自《Datasets for Large Language Models: A Comprehensive Survey》[1]这篇论文,感谢大佬们的系统整理。

参考文献

[1]Liu Y, Cao J, Liu C, et al. Datasets for large language models: A comprehensive survey[J]. arXiv preprint arXiv:2402.18041, 2024.

[2] Lin CY (2004) ROUGE: A package for automatic evaluation of summaries. In: Text Summarization Branches Out. ACL, Barcelona, Spain, pp 74–81

[3] https://huggingface.co/spaces/evaluate-metric/exact match

[4] https://libguides.library.kent.edu/SPSS/PearsonCorr

[5] https://github.com/CMKRG/QiZhenGPT/tree/main/data/eval

[6] https://github.com/jeinlee1991/chinese-llm-benchmark

[7] Xu L, Li A, Zhu L, Xue H, Zhu C, Zhao K, et al (2023e) SuperCLUE: A comprehensive Chinese large language model benchmark. arXiv preprint arXiv:2307.15020

[8] https://github.com/lm-sys/vicuna-blog-eval

[9] Dubois Y, Li X, Taori R, Zhang T, Gulrajani I, Ba J, et al (2023) AlpacaFarm: A simulation framework for methods that learn from human feedback. arXiv preprint arXiv:2305.14387

[10] Zhang S, Fang Q, Zhang Z, Ma Z, Zhou Y, Huang L, et al (2023h) BayLing: Bridging cross-lingual alignment and instruction following through interactive translation for large language models. arXiv preprint arXiv:2306.10968

[11] Ji Y, Deng Y, Gong Y, Peng Y, Niu Q, Zhang L, et al (2023b) Exploring the impact of instruction data scaling on large language models: An empirical study on real-world use cases. arXiv preprint arXiv:2303.14742

[12] Zheng L, Chiang WL, Sheng Y, Zhuang S, Wu Z, Zhuang Y, et al (2023b) Judging LLM-as-a-judge with MT-bench and Chatbot Arena. In: Thirty-seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, pp 1–29

[13] Xu L, Li A, Zhu L, Xue H, Zhu C, Zhao K, et al (2023e) SuperCLUE: A comprehensive Chinese large language model benchmark. arXiv preprint arXiv:2307.15020

[14] He Q, Zeng J, Huang W, Chen L, Xiao J, He Q, et al (2023b) Can large language models understand real-world complex instructions? arXiv preprint arXiv:2309.09150

[18] https://github.com/jizijing/C-CLUE

[19] https://github.com/llmeval/llmeval-3

[20] Zeng H (2023) Measuring massive multitask Chinese understanding. arXiv preprint arXiv:2304.12986

[21] Wang X, Hu Z, Lu P, Zhu Y, Zhang J, Subramaniam S, et al (2023d) SCIBENCH: Evaluating college-level scientific problem-solving abilities of large language models. arXiv preprint arXiv:2307.10635

[22] Chen W, Yin M, Ku M, Lu P, Wan Y, Ma X, et al (2023b) TheoremQA: A theoremdriven question answering dataset. In: Bouamor H, Pino J, Bali K (eds) Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing. ACL, Singapore, pp 7889–7901, https://doi.org/10.18653/v1/2023.emnlp-main.489

[23] Sawada T, Paleka D, Havrilla A, Tadepalli P, Vidas P, Kranias A, et al (2023) ARB: Advanced reasoning benchmark for large language models. arXiv preprint arXiv:2307.13692

[24] Lu P, Mishra S, Xia T, Qiu L, Chang KW, Zhu SC, et al (2022) Learn to explain: Multimodal reasoning via thought chains for science question answering. In: Koyejo S, Mohamed S, Agarwal A, Belgrave D, Cho K, Oh A (eds) Advances in Neural Information Processing Systems, vol 35. Curran Associates, Inc., pp 2507–2521

[25] Huang Y, Bai Y, Zhu Z, Zhang J, Zhang J, Su T, et al (2023c) C-Eval: A multi-level multi-discipline Chinese evaluation suite for foundation models. In: Thirty-seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, pp 1–20

[26] Zeng H, Xue J, Hao M, Sun C, Ning B, Zhang N (2023b) Evaluating the generation capabilities of large Chinese language models. arXiv preprint arXiv:2308.04823

[27] Hendrycks D, Burns C, Basart S, Zou A, Mazeika M, Song D, et al (2021b) Measuring massive multitask language understanding. In: International Conference on Learning Representations, pp 1–27

[28] Liu C, Jin R, Ren Y, Yu L, Dong T, Peng X, et al (2023a) M3KE: A massive multi-level multi-subject knowledge evaluation benchmark for Chinese large language models. arXiv preprint arXiv:2305.10263

[29] Gu Z, Zhu X, Ye H, Zhang L, Wang J, Jiang S, et al (2023) Xiezhi: An everupdating benchmark for holistic domain knowledge evaluation. arXiv preprint arXiv:2306.05783

[30] Chong R, Lu L, Yang L, Nie J, Zhou S, Li Y, et al (2023) MCTS: A multi-reference Chinese text simplification dataset. arXiv preprint arXiv:2306.02796

[31] Alex N, Lifland E, Tunstall L, Thakur A, Maham P, Riedel CJ, et al (2021) RAFT: A real-world few-shot text classification benchmark. In: Thirty-fifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 2), pp 1–12

[32] Wang A, Singh A, Michael J, Hill F, Levy O, Bowman S (2018) GLUE: A multi-task benchmark and analysis platform for natural language understanding. In: Linzen T, Chrupa la G, Alishahi A (eds) Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP. ACL, Brussels, Belgium, pp 353–355, https://doi.org/10.18653/v1/W18-5446

[33] Wang A, Pruksachatkun Y, Nangia N, Singh A, Michael J, Hill F, et al (2019) SuperGLUE: A stickier benchmark for general-purpose language understanding systems. In: Proceedings of the 33rd International Conference on Neural Information Processing Systems. Curran Associates Inc., Red Hook, NY, USA, pp 3266–3280

[34] Xu L, Hu H, Zhang X, Li L, Cao C, Li Y, et al (2020b) CLUE: A Chinese language understanding evaluation benchmark. In: Scott D, Bel N, Zong C (eds) Proceedings of the 28th International Conference on Computational Linguistics. International Committee on Computational Linguistics, Barcelona, Spain (Online), pp 4762–4772, https://doi.org/10.18653/v1/2020.coling-main.419

[35] Yao Y, Dong Q, Guan J, Cao B, Zhang Z, Xiao C, et al (2021) CUGE: A Chinese language understanding and generation evaluation benchmark. arXiv preprint arXiv:2112.13610

[36] Conneau A, Kiela D (2018) SentEval: An evaluation toolkit for universal sentence representations. In: Calzolari N, Choukri K, Cieri C, Declerck T, Goggi S, Hasida K, et al (eds) Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), Miyazaki, Japan, pp 1699–1704

[37] Fu Y, Ou L, Chen M, Wan Y, Peng H, Khot T (2023) Chain-of-Thought Hub: A continuous effort to measure large language models’ reasoning performance. arXiv preprint arXiv:2305.17306

[38] Hou ZJ, Zhang L, Callison-Burch C (2023) Choice-75: A dataset on decision branching in script learning. arXiv preprint arXiv:2309.11737

[39] Xu F, Lin Q, Han J, Zhao T, Liu J, Cambria E (2023c) Are large language models really good logical reasoners? A comprehensive evaluation from deductive, inductive and abductive views. arXiv preprint arXiv:2306.09841

[40] Lu P, Qiu L, Chang KW, Wu YN, Zhu SC, Rajpurohit T, et al (2023b) Dynamic prompt learning via policy gradient for semi-structured mathematical reasoning. In: The Eleventh International Conference on Learning Representations, pp 1–26

[41] Mishra S, Finlayson M, Lu P, Tang L, Welleck S, Baral C, et al (2022a) LILA: A unified benchmark for mathematical reasoning. In: Goldberg Y, Kozareva Z, Zhang Y (eds) Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. ACL, Abu Dhabi, United Arab Emirates, pp 5807–5832, https://doi.org/10.18653/v1/2022.emnlp-main.392

[42] Zheng K, Han JM, Polu S (2022) MiniF2F: A cross-system benchmark for formal Olympiad-level mathematics. In: International Conference on Learning Representations, pp 1–11

[43] Zhang M, Zhang Y, Liu S, Yuan H, Wang J, Dong Y, et al (2023e) LLMEval-2. https://github.com/llmeval/llmeval-2

[44] Yu J, Wang X, Tu S, Cao S, Zhang-Li D, Lv X, et al (2023a) KoLA: Carefully benchmarking world knowledge of large language models. arXiv preprint arXiv:2306.09296

[45] Yu J, Wang X, Tu S, Cao S, Zhang-Li D, Lv X, et al (2023a) KoLA: Carefully benchmarking world knowledge of large language models. arXiv preprint arXiv:2306.09296

[46] Choi M, Pei J, Kumar S, Shu C, Jurgens D (2023) Do LLMs understand social knowledge? Evaluating the sociability of large language models with SocKET benchmark. In: Bouamor H, Pino J, Bali K (eds) Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing. ACL, Singapore, pp 11370–11403, https://doi.org/10.18653/v1/2023.emnlp-main.699

[47] Yin X, Huang B, Wan X (2023b) ALCUNA: Large language models meet new knowledge. In: Bouamor H, Pino J, Bali K (eds) Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing. ACL, Singapore, pp 1397–1414, https://doi.org/10.18653/v1/2023.emnlp-main.87

[48] Shaham U, Ivgi M, Efrat A, Berant J, Levy O (2023) ZeroSCROLLS: A zero-shot benchmark for long text understanding. arXiv preprint arXiv:2305.14196

[49] An C, Gong S, Zhong M, Li M, Zhang J, Kong L, et al (2023) L-Eval: Instituting standardized evaluation for long context language models. arXiv preprint arXiv:2307.11088

[50] Li J, Wang M, Zheng Z, Zhang M (2023g) LooGLE: Can long-context language models understand long contexts? arXiv preprint arXiv:2311.04939

[51] Bai Y, Lv X, Zhang J, Lyu H, Tang J, Huang Z, et al (2023b) Longbench: A bilingual, multitask benchmark for long context understanding. arXiv preprint arXiv:2308.14508

[52] Zhang X, Chen Y, Hu S, Wu Q, Chen J, Xu Z, et al (2023j) InfiniteBench: 128k long-context benchmark for language models. https://github.com/OpenBMB/InfiniteBench?tab=readme-ov-file

[53] Li M, Zhao Y, Yu B, Song F, Li H, Yu H, et al (2023i) API-Bank: A comprehensive benchmark for tool-augmented LLMs. In: Bouamor H, Pino J, Bali K (eds) Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing. ACL, Singapore, pp 3102–3116, https://doi.org/10.18653/v1/2023.emnlp-main.187

[54] Patil SG, Zhang T, Wang X, Gonzalez JE (2023) Gorilla: Large language model connected with massive APIs. arXiv preprint arXiv:2305.15334

[55] Xu Q, Hong F, Li B, Hu C, Chen Z, Zhang J (2023f) On the tool manipulation capability of open-source large language models. arXiv preprint arXiv:2305.16504

[56] Liu X, Yu H, Zhang H, Xu Y, Lei X, Lai H, et al (2023f) AgentBench: Evaluating LLMs as agents. arXiv preprint arXiv:2308.03688

[57] https://github.com/CLUEbenchmark/SuperCLUE-Agent

[58] Hendrycks D, Basart S, Kadavath S, Mazeika M, Arora A, Guo E, et al (2021a) Measuring coding challenge competence with APPS. In: Vanschoren J, Yeung S (eds) Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks, vol 1. Curran, pp 1–11

[59] Lai Y, Li C, Wang Y, Zhang T, Zhong R, Zettlemoyer L, et al (2023) DS-1000: A natural and reliable benchmark for data science code generation. In: Krause A, Brunskill E, Cho K, Engelhardt B, Sabato S, Scarlett J (eds) Proceedings of the 40th International Conference on Machine Learning, vol 202. PMLR, pp 18319–18345

[60] Chen M, Tworek J, Jun H, Yuan Q, Pinto HPdO, Kaplan J, et al (2021) Evaluating large language models trained on code. arXiv preprint arXiv:2107.03374

[61] Nijkamp E, Pang B, Hayashi H, Tu L, Wang H, Zhou Y, et al (2023) CodeGen: An open large language model for code with multi-turn program synthesis. In: The Eleventh International Conference on Learning Representations, pp 1–25

[62] Wang Z, Zhou S, Fried D, Neubig G (2023h) Execution-based evaluation for opendomain code generation. In: Bouamor H, Pino J, Bali K (eds) Findings of the Association for Computational Linguistics: EMNLP 2023. ACL, Singapore, pp 1271–1290, https://doi.org/10.18653/v1/2023.findings-emnlp.89

[63] Li J, Hui B, QU G, Yang J, Li B, Li B, et al (2023f) Can LLM already serve as a database interface? A Big bench for large-scale database grounded text-to-SQLs. In: Thirty-seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, pp 1–28

[64] Lu S, Guo D, Ren S, Huang J, Svyatkovskiy A, Blanco A, et al (2021) CodeXGLUE: A machine learning benchmark dataset for code understanding and generation. In: Thirty-fifth Conference on Neural Information Processing Systems Datasets and Benchmarks Track (Round 1), pp 1–16

[65] Muennighoff N, Liu Q, Zebaze A, Zheng Q, Hui B, Zhuo TY, et al (2023a) OctoPack: Instruction tuning code large language models. In: NeurIPS 2023 Workshop on Instruction Tuning and Instruction Following, pp 1–59

[66] Dai Y, Feng D, Huang J, Jia H, Xie Q, Zhang Y, et al (2023) LAiW: A Chinese legal large language models benchmark (a technical report). arXiv preprint arXiv:2310.05620

[67] Fei Z, Shen X, Zhu D, Zhou F, Han Z, Zhang S, et al (2023) LawBench: Benchmarking legal knowledge of large language models. arXiv preprint arXiv:2309.16289

[68] Guha N, Nyarko J, Ho DE, Re C, Chilton A, Narayana A, et al (2023) LegalBench: A collaboratively built benchmark for measuring legal reasoning in large language models. In: Thirty-seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, pp 1–157

[69] Chalkidis I, Jana A, Hartung D, Bommarito M, Androutsopoulos I, Katz D, et al (2022) LexGLUE: A benchmark dataset for legal language understanding in English. In: Muresan S, Nakov P, Villavicencio A (eds) Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). ACL, Dublin, Ireland, pp 4310–4330, https://doi.org/10.18653/v1/2022.acl-long.297

[70] Niklaus J, Matoshi V, Rani P, Galassi A, St¨urmer M, Chalkidis I (2023) LEXTREME: A multi-lingual and multi-task benchmark for the legal domain. In: Bouamor H, Pino J, Bali K (eds) Findings of the Association for Computational Linguistics: EMNLP 2023. ACL, Singapore, pp 3016–3054, https://doi.org/10.18653/v1/2023.findings-emnlp.200

[71] Rasiah V, Stern R, Matoshi V, St¨urmer M, Chalkidis I, Ho DE, et al (2023) SCALE: Scaling up the complexity for advanced language model evaluation. arXiv preprint arXiv:2306.09237

[72] Singhal K, Azizi S, Tu T, Mahdavi SS, Wei J, Chung HW, et al (2023) Large language models encode clinical knowledge. Nature 620(7972):172–180

[73] https://github.com/CMKRG/QiZhenGPT/tree/main/data/eval

[74] Zhang N, Chen M, Bi Z, Liang X, Li L, Shang X, et al (2022) CBLUE: A Chinese biomedical language understanding evaluation benchmark. In: Muresan S, Nakov P, Villavicencio A (eds) Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). ACL, Dublin, Ireland, pp 7888–7915, https://doi.org/10.18653/v1/2022.acl-long.544

[75] Wang X, Chen GH, Song D, Zhang Z, Chen Z, Xiao Q, et al (2023c) CMB: A comprehensive medical benchmark in Chinese. arXiv preprint arXiv:2308.08833

[76] Li J, Wang X, Wu X, Zhang Z, Xu X, Fu J, et al (2023h) Huatuo-26M, a large-scale Chinese medical QA dataset. arXiv preprint arXiv:2305.01526

[77] https://github.com/michael-wzhu/PromptCBLUE

[78] Lu D, Liang J, Xu Y, He Q, Geng Y, Han M, et al (2023a) BBT-Fin: Comprehensive construction of Chinese financial domain pre-trained language model, corpus and benchmark. arXiv preprint arXiv:2302.09432

[79] https://github.com/Duxiaoman-DI/XuanYuan/tree/main/FinanceIQ

[80] Zhang L, Cai W, Liu Z, Yang Z, Dai W, Liao Y, et al (2023d) FinEval: A Chinese financial domain knowledge evaluation benchmark for large language models. arXiv preprint arXiv:2308.09975

[81] Shah R, Chawla K, Eidnani D, Shah A, Du W, Chava S, et al (2022) When FLUE meets FLANG: Benchmarks and large pretrained language model for financial domain. In: Goldberg Y, Kozareva Z, Zhang Y (eds) Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing. ACL, Abu Dhabi, United Arab Emirates, pp 2322–2335, https://doi.org/10.18653/v1/2022.emnlp-main.148

[82] Xie Q, Han W, Chen Z, Xiang R, Zhang X, He Y, et al (2024) The FinBen: An holistic financial benchmark for large language models. arXiv preprint arXiv:2402.12659

[83] Papineni K, Roukos S, Ward T, Zhu WJ (2002) BLEU: A method for automatic evaluation of machine translation. In: Isabelle P, Charniak E, Lin D (eds) Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics. ACL, Philadelphia, Pennsylvania, USA, pp 311–318, https://doi.org/10.3115/1073083.1073135

这篇关于2.6 大模型数据基础:大模型评估数据详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1138591

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi