本地离线模型搭建指南-LLaMA-Factory训练框架及工具

2024-06-23 20:28

本文主要是介绍本地离线模型搭建指南-LLaMA-Factory训练框架及工具,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

搭建一个本地中文大语言模型(LLM)涉及多个关键步骤,从选择模型底座,到运行机器和框架,再到具体的架构实现和训练方式。以下是一个详细的指南,帮助你从零开始构建和运行一个中文大语言模型。

本地离线模型搭建指南将按照以下四个部分展开

  1. 中文大语言模型底座选择依据
  2. 本地运行显卡选择
  3. RAG架构实现
  4. LLaMA-Factory训练框架及工具

4 训练架构及工具

4.1 为什么要使用LLaMA-Factory进行训练

LLaMA-Factory是一个专为大模型训练设计的开源平台,具有以下几个优势:

  1. 快速学习和应用: 对于没有微调大模型经验的用户,通过学习LLaMA-Factory后,可以快速地训练出自己需要的模型。
  2. 理解微调技术: 对于技术人员,LLaMA-Factory提供了一个很好的学习平台,通过阅读源码,可以深入了解大模型的微调技术。
  3. 捷径: LLaMA-Factory为用户提供了一条走向大模型微调的捷径,使用户能够快速掌握相关概念和技术。

4.2 LLaMA-Factory训练所能解决的问题

  1. 大模型的实际应用: 企业想要利用大模型进行实际应用时,必须懂得微调的过程,而LLaMA-Factory提供了一个实用的平台来实现这一点。
  2. 个性化模型训练: 用户可以通过LLaMA-Factory快速训练出适合自己需求的模型,满足不同领域的具体要求。
  3. 技术理解和提升: 技术人员可以通过LLaMA-Factory的源码学习,进一步理解大模型的微调技术,并应用于实际项目中。

4.3 LLaMA-Factory的训练步骤和方法

4.3.1 模型训练阶段
  1. 预训练阶段(Pre-Training):
    预训练是大模型训练的初始阶段,主要目的是通过大规模数据集训练基础模型。这一步是最消耗计算资源的,通常需要使用大量的计算集群。
  2. 监督微调阶段(Supervised Finetuning, SFT):
    这个阶段的训练数据质量较高,通常由人工筛选或生成。经过这个阶段的模型已经具备上线的能力。
  3. 基于人类反馈的强化学习(RLHF):
    1. 奖励建模阶段(Reward Modeling): 在这个阶段,模型不仅输出预测的内容,还输出一个奖励值(评分值),用于后续的强化学习。
    2. 强化学习阶段(Reinforcement Learning): 通过奖励模型对多个输出进行评分,并基于评分进行加权,反向传播调整模型参数。
4.3.2 模型训练模式

根据具体需求,可以选择不同的训练模式:

  1. 模式一: 基于base模型 + 领域任务的SFT
  2. 模式二: 基于base模型 + 领域数据 continue pre-train + 领域任务SFT
  3. 模式三: 基于base模型 + 领域数据 continue pre-train + 通用任务SFT + 领域任务SFT
  4. 模式四: 基于base模型 + 领域数据 continue pre-train + 通用任务与领域任务混合SFT
  5. 模式五: 基于base模型 + 领域数据 continue pre-train(混入SFT数据 + 通用任务与领域任务混合SFT)
  6. 模式六: 基于chat模型 + 领域任务SFT
  7. 模式七: 基于chat模型 + 领域数据 continue pre-train + 领域任务SFT
4.3.3 是否需要继续预训练(continue pre-train)
  1. 数据集差异大: 如果领域任务的数据集与预训练的数据集差异较大,建议进行continue pre-train。
  2. 数据量较大: 如果领域任务的数据量较大(token在1B以上),并且只追求领域任务的效果,也建议进行continue pre-train。
4.3.4 选择chat模型还是base模型
  1. base模型: 如果希望模型的通用能力不下降,建议选择base模型进行多任务混合训练。
  2. chat模型: 如果只追求领域任务的效果,可以选择chat模型进行领域任务的SFT。

4.4 实践建议

  1. 资源充足: 如只考虑领域任务效果,建议选择模式二;如考虑模型综合能力,建议选择模式五。
  2. 资源有限: 建议选择模式六。
  3. 一般情况下: 不进行RLHF微调。

4.5 开发工具库

LLaMA-Factory使用了一些关键的开发工具库,包括Transformers和PEFT库,后者提供了多种高效的微调方法,如LoRA、AdaLoRA、P-tuning等。

通过以上步骤和方法,用户可以有效地使用LLaMA-Factory进行大模型的微调训练,满足不同领域和任务的需求。

4.6 本地LLaMA-Factory训练模型实践运行配置

底座包含模型模型参数大小机器配置显存大小是否可运行
ChatGLMChatGLM3-6B6BCPU 16核心 32G内存未测试
ChatGLMChatGLM3-6B6B显卡4070Ti16G可以
ChatGLMChatGLM4-9B9B显卡4070Ti16G未测试
LLaMAChinese-LlaMA27B显卡3060Ti8G未测试
QwenQwen1.57B显卡4070Ti16G可以

更多详细信息,请访问

从LLaMA-Factory项目认识微调

LLaMA-Factory QuickStart

5 结论

搭建本地中文大语言模型是一个复杂而系统的工程,涉及模型选择、硬件配置、框架选择、架构实现、训练工具和方法等多个方面。通过合理选择和配置,可以在本地成功搭建并运行一个高性能的中文大语言模型。

更多详细信息,请访问

从LLaMA-Factory项目认识微调

LLaMA-Factory QuickStart

这篇关于本地离线模型搭建指南-LLaMA-Factory训练框架及工具的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1088189

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

墨刀原型工具-小白入门篇

墨刀原型工具-小白入门篇 简介 随着互联网的发展和用户体验的重要性越来越受到重视,原型设计逐渐成为了产品设计中的重要环节。墨刀作为一款原型设计工具,以其简洁、易用的特点,受到了很多设计师的喜爱。本文将介绍墨刀原型工具的基本使用方法,以帮助小白快速上手。 第一章:认识墨刀原型工具 1.1 什么是墨刀原型工具 墨刀是一款基于Web的原型设计工具,可以帮助设计师快速创建交互原型,并且可以与团队

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

【服务器运维】CentOS6 minimal 离线安装MySQL5.7

1.准备安装包(版本因人而异,所以下面的命令中版本省略,实际操作中用Tab自动补全就好了) cloog-ppl-0.15.7-1.2.el6.x86_64.rpmcpp-4.4.7-23.el6.x86_64.rpmgcc-4.4.7-23.el6.x86_64.rpmgcc-c++-4.4.7-23.el6.x86_64.rpmglibc-2.12-1.212.el6.x86_64.r

【服务器运维】CentOS7 minimal 离线安装 gcc perl vmware-tools

0. 本机在有网的情况下,下载CentOS镜像 https://www.centos.org/download/ 1. 取出rpm 有的情况可能不需要net-tools,但是如果出现跟ifconfig相关的错误,就把它安装上。另外如果不想升级内核版本的话,就找对应内核版本的rpm版本安装 perl-Time-Local-1.2300-2.el7.noarch.rpmperl-Tim

Windows/macOS/Linux 安装 Redis 和 Redis Desktop Manager 可视化工具

本文所有安装都在macOS High Sierra 10.13.4进行,Windows安装相对容易些,Linux安装与macOS类似,文中会做区分讲解 1. Redis安装 1.下载Redis https://redis.io/download 把下载的源码更名为redis-4.0.9-source,我喜欢跟maven、Tomcat放在一起,就放到/Users/zhan/Documents

Ubuntu20.04离线安装Docker

1.下载3个docker离线安装包,下载网址: https://download.docker.com/linux/ubuntu/dists/xenial/pool/stable/amd64/ 2.把3个离线安装包拷贝到ubuntu本地执行以下命令 sudo dpkg -i containerd.io_1.4.6-1_amd64.deb sudo dpkg -i docker-ce-c

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达