An Empirical Study of Instruction-tuning Large Language Models in Chinese

2023-11-06 23:04

本文主要是介绍An Empirical Study of Instruction-tuning Large Language Models in Chinese,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文是LLM系列文章,针对《An Empirical Study of Instruction-tuning Large Language Models in Chinese》的翻译。

汉语大语言模型指令调整的实证研究

  • 摘要
  • 1 引言
  • 2 指令调整三元组
  • 3 其他重要因素
  • 4 迈向更好的中文LLM
  • 5 结论
  • 局限性

摘要

ChatGPT的成功验证了大型语言模型(LLM)在通用人工智能(AGI)中的潜力。随后,LLM的发布引发了开源社区对指令调优的兴趣,这被认为加速了ChatGPT的复制过程。然而,对世界上最常用的语言——汉语的指令调整LLM的研究仍处于早期阶段。因此,本文对汉语指令调整LLM进行了深入的实证研究,可以作为一本食谱,为有效定制能够更好地响应汉语指令的LLM提供有价值的发现。具体来说,我们系统地探讨了LLM基础、参数有效方法和指令数据类型的影响,这是指令调优的三个最重要的元素。此外,我们还进行了实验来研究其他因素的影响,如思维链数据和人类价值取向。我们希望这一实证研究能够为ChatGPT的中文公开版做出微薄的贡献。本文将发布一个强大的中国LLM,可与ChatGLM相媲美。代码和数据可在https://github.com/PhoebusSi/Alpaca-CoT上找到。

1 引言

2 指令调整三元组

3 其他重要因素

4 迈向更好的中文LLM

5 结论

本文首次对汉语开放式大语言模型的指令调整进行了深入的实证研究,详细讨论了一系列大语言模型、参数有效方法和汉语指令数据集。此外,我们还探讨了其他几个重要因素,包括CoT、词汇、提示语言和人类价值取向。在实证探索的基础上,我们公开发布了一个LLM,它是ChatGLM的竞争对手,并提供了详细的实现细节。

局限性

大多数实验结果都是基于参数有效的方法,这可能与全参数微调的结果不同。然而,我们相信本文的发现和结论仍然适用于全参数微调。此外,基于参数高效方法的指令调优具有更广泛的应用和研究场景。

这篇关于An Empirical Study of Instruction-tuning Large Language Models in Chinese的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/359587

相关文章

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

UML- 统一建模语言(Unified Modeling Language)创建项目的序列图及类图

陈科肇 ============= 1.主要模型 在UML系统开发中有三个主要的模型: 功能模型:从用户的角度展示系统的功能,包括用例图。 对象模型:采用对象、属性、操作、关联等概念展示系统的结构和基础,包括类图、对象图、包图。 动态模型:展现系统的内部行为。 包括序列图、活动图、状态图。 因为要创建个人空间项目并不是一个很大的项目,我这里只须关注两种图的创建就可以了,而在开始创建UML图

速通GPT-3:Language Models are Few-Shot Learners全文解读

文章目录 论文实验总览1. 任务设置与测试策略2. 任务类别3. 关键实验结果4. 数据污染与实验局限性5. 总结与贡献 Abstract1. 概括2. 具体分析3. 摘要全文翻译4. 为什么不需要梯度更新或微调⭐ Introduction1. 概括2. 具体分析3. 进一步分析 Approach1. 概括2. 具体分析3. 进一步分析 Results1. 概括2. 具体分析2.1 语言模型

高精度打表-Factoring Large Numbers

求斐波那契数,不打表的话会超时,打表的话普通的高精度开不出来那么大的数组,不如一个int存8位,特殊处理一下,具体看代码 #include<stdio.h>#include<string.h>#define MAX_SIZE 5005#define LEN 150#define to 100000000/*一个int存8位*/int num[MAX_SIZE][LEN];void

Study Plan For Algorithms - Part24

1. 包含min函数的栈 定义栈的数据结构,要求在该类型中实现一个 min 函数,能够获取栈的最小元素。在该栈中,调用 min、push 以及 pop 函数的时间复杂度均为 O (1)。 方法: class MinStack:def __init__(self):self.stack = []self.min_stack = [float('inf')]def push(self, x):sel

[论文笔记]Making Large Language Models A Better Foundation For Dense Retrieval

引言 今天带来北京智源研究院(BAAI)团队带来的一篇关于如何微调LLM变成密集检索器的论文笔记——Making Large Language Models A Better Foundation For Dense Retrieval。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 密集检索需要学习具有区分性的文本嵌入,以表示查询和文档之间的语义关系。考虑到大语言模

ModuleNotFoundError: No module named ‘diffusers.models.dual_transformer_2d‘解决方法

Python应用运行报错,部分错误信息如下: Traceback (most recent call last): File “\pipelines_ootd\unet_vton_2d_blocks.py”, line 29, in from diffusers.models.dual_transformer_2d import DualTransformer2DModel ModuleNotF

阅读笔记--Guiding Attention in End-to-End Driving Models

作者:Diego Porres1, Yi Xiao1, Gabriel Villalonga1, Alexandre Levy1, Antonio M. L ́ opez1,2 出版时间:arXiv:2405.00242v1 [cs.CV] 30 Apr 2024 这篇论文研究了如何引导基于视觉的端到端自动驾驶模型的注意力,以提高它们的驾驶质量和获得更直观的激活图。 摘 要   介绍

ARM SIMD instruction -- movi

MOVI       Move Immediate (vector). This instruction places an immediate constant into every vector element of the destination SIMD&FP register。       立即移动(向量)。此指令将一个立即常数放入目标SIMD&FP寄存器的每个向量元素中。