第七节课《OpenCompass司南--大模型评测实战》

2024-05-07 07:04

本文主要是介绍第七节课《OpenCompass司南--大模型评测实战》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

OpenCompass 大模型评测实战_哔哩哔哩_bilibili

https://github.com/InternLM/Tutorial/blob/camp2/opencompass/readme.md

InternStudio

一、通过评测促进模型发展

  • 面向未来拓展能力维度:评测体系需增加新能力维度(数学、复杂推理、逻辑推理、代码和智能体等),以全面评估模型性能。
  • 扎根通用能力聚焦垂直行业:在医疗、金融、法律等专业领域,评测需结合行业知识和规范,以评估模型的行业适用性。
  • 高质量中文基准:针对中文场景,需要开发能力准确评估其能力的中文评测基准,促进中文社区的大模型发展。
  • 性能评测反哺能力迭代:通过深入分析评测性能,探索模型能力形成机制,发现模型不足,研究针对性提升策略。

二、大语言模型评测中的挑战

  • 全面性
    • 大模型应用场景千变万化。
    • 模型能力演进迅速
    • 如何设计和构造可扩展的能力维度体系
  • 评测成本
    • 评测数十万道题需要大量算力资源
    • 基于人工打分的主观评测成本高昂
  • 数据污染
    • ​​​​​​​海量语料不可避免带来评测集污染
    • 亟需可靠的数据污染检测技术
    • 如何设计可动态更新高质量评测基准
  • 鲁棒性
    • ​​​​​​​大模型对提示词十分敏感
    • 多次采样情况下模型性能不稳定

三、如何评测大模型

1、根据模型类型的不同评测模型

  • 基座模型:不经过微调
  • 对话模型:
    • 指令数据有监督微调(SFT)
    • 人类偏好对齐(RLHF)
  • 公开权重的开源模型
    • 使用GPU/推理加速卡进行本地推理
  • API模型
    • 发送网络请求获取回复

2、根据评测本身的方式(客观评测与主观评测)

  • 客观评测
    • 问答题
    • 选择题
  • 主观评测:写一首诗
    • 人类评价
    • 模型评价

3、提示词工程

  • 做提示词工程,丰富题目,给模型做推理,然后做评测,评测结果更加真实反映模型性能。

  • 小样本学习:
  • 思维链技术:

4、长文本评测

  • 大海捞针:

汇集社区力量:工具-基准-榜单 三位一体

四、CompassRank:中立全面的性能榜单

  • 大模型
  • 多模态

五、CompassKit:大模型评测全栈工具链

  • 数据污染检查
    • 多种数据污染检测方法
    • 支持主流数据集污染检测
  • 更丰富的模型推理接入
    • 支持多个商业模型API
    • 支持多种推理后端
  • 长文本能力评测
    • 支持长文本大海捞针测试
    • 支持多个主流长文本评测基准
  • 中英文双语主观评测
    • 支持基于大模型评价的主观评测
    • 提供模型打分、模型对战多种能力
    • 灵活切换上百种评价模型

OpenCompass评测流水线

自定义任意模型和数据集,多模型和数据集进行切分,做到并行化(多GPU或任务),多种输出方式

  • VLMEvalKit:多模态评测工具
  • Code-Evaluator:代码评测工具
  • MixtralKit MoE:模型入门工具

六、CompassHub:高质量评测基准社区

开源开放,共建共享的大模型评测基准社区

七、能力维度全面升级

八、夯实基础:自研高质量大模型评测基准

  • MathBench:多层次数学能力评测基准(计算、小学、初中、高中、大学、CE平均分)
    • 梯度难度
    • 题目来源多种多样
    • 循环测评
  •  CIBench:代码解释器能力评测基准
    • 任务和软件的多样性
    • 评测基准具有高度可拓展性
    • 多难度等级设计(10轮以上交互)
  • T-Eval:大模型细粒度工具能力评测基准
    • 规划
    • 检索
    • 指令遵循
    • 推理
    • 理解
    • 评价

各行业垂直领域合作

九、实战

1、安装、

studio-conda -o internlm-base -t opencompass
source activate opencompass
git clone -b 0.2.4 https://github.com/open-compass/opencompass
cd opencompass
pip install -e .
pip install -r requirements.txt
2、数据准备
cp /share/temp/datasets/OpenCompassData-core-20231110.zip /root/opencompass/
unzip OpenCompassData-core-20231110.zip

3、查看支持的数据集和模型

列出所有跟 InternLM 及 C-Eval 相关的配置

python tools/list_configs.py internlm ceval

4、启动评测

评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。 OpenCompass 默认并行启动评估过程。--debug 模式启动评估,并检查是否存在问题。

pip install protobuf
export MKL_SERVICE_FORCE_INTEL=1
#或
export MKL_THREADING_LAYER=GNU

 

python run.py
--datasets ceval_gen \ #数据集
--hf-path /share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b \  # HuggingFace 模型路径
--tokenizer-path /share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b \  # HuggingFace tokenizer 路径(如果与模型路径相同,可以省略)
--tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True \  # 构建 tokenizer 的参数
--model-kwargs device_map='auto' trust_remote_code=True \  # 构建模型的参数
--max-seq-len 1024 \  # 模型可以接受的最大序列长度
--max-out-len 16 \  # 生成的最大 token 数
--batch-size 2  \  # 批量大小
--num-gpus 1  # 运行模型所需的 GPU 数量
--work-dir "xxxx/xxx" #结果保存路径,默认outputs/default
--reuse latest #指定时间戳,接着之前的时间戳去跑
--debug #debug模式显示,默认存在log文件夹下
python run.py --datasets ceval_gen --hf-path /share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b --tokenizer-path /share/new_models/Shanghai_AI_Laboratory/internlm2-chat-1_8b --tokenizer-kwargs padding_side='left' truncation='left' trust_remote_code=True --model-kwargs trust_remote_code=True device_map='auto' --max-seq-len 1024 --max-out-len 16 --batch-size 2 --num-gpus 1 --debug

这篇关于第七节课《OpenCompass司南--大模型评测实战》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/966655

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

React+TS前台项目实战(十七)-- 全局常用组件Dropdown封装

文章目录 前言Dropdown组件1. 功能分析2. 代码+详细注释3. 使用方式4. 效果展示 总结 前言 今天这篇主要讲全局Dropdown组件封装,可根据UI设计师要求自定义修改。 Dropdown组件 1. 功能分析 (1)通过position属性,可以控制下拉选项的位置 (2)通过传入width属性, 可以自定义下拉选项的宽度 (3)通过传入classN

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著

PyTorch模型_trace实战:深入理解与应用

pytorch使用trace模型 1、使用trace生成torchscript模型2、使用trace的模型预测 1、使用trace生成torchscript模型 def save_trace(model, input, save_path):traced_script_model = torch.jit.trace(model, input)<

MyBatis-Plus常用注解详解与实战应用

MyBatis-Plus 是一个 MyBatis 的增强工具,在 MyBatis 的基础上只做增强不做改变,为简化开发、提高效率而生。它提供了大量的常用注解,使得开发者能够更方便地进行数据库操作。 MyBatis-Plus 提供的注解可以帮我们解决一些数据库与实体之间相互映射的问题。 @TableName @TableName 用来指定表名 在使用 MyBatis-Plus 实现基本的 C