本文主要是介绍【模型参数微调】最先进的参数高效微调 (PEFT) 方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
简介
由于大型预训练模型的规模,微调大型预训练模型的成本通常高得令人望而却步。参数高效微调 (PEFT) 方法只需微调少量(额外)模型参数而不是所有模型参数,即可使大型预训练模型有效地适应各种下游应用。这大大降低了计算和存储成本。最近最先进的PEFT技术实现了与完全微调的模型相当的性能。
PEFT 与 Transformers 集成,可轻松进行模型训练和推理,与 Diffusers 集成,方便地管理不同的适配器,与 Accelerate 集成,用于大型模型的分布式训练和推理。
查看 PEFT 适配器 API 参考部分,了解受支持的 PEFT 方法列表,并阅读适配器、软提示和 IA3 概念指南,详细了解这些方法的工作原理。
快速入门
安装PEFT
从 pip 安装 PEFT:
pip install peft
加载和微调
通过将基本模型和 PEFT 配置包装在 get_peft_model
中,准备使用 PEFT 方法(如 LoRA)进行训练的模型。对于 bigscience/mt0-large 模型,您只训练了 0.19% 的参数!
from transformers import AutoModelForSeq2SeqLM
from peft import get_peft_config, get_peft_model, LoraConfig, TaskType
model_name_or_path = "bigscience/mt0-large"
tokenizer_name_or
这篇关于【模型参数微调】最先进的参数高效微调 (PEFT) 方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!