本文主要是介绍Facechain系列:命令行进行LoRA训练,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
FaceChain也支持在python环境中直接运行脚本进行训练和推理。为了避免人物肖像的版权问题,文章中使用的图片不是由FaceChain实际生成的图片,特此说明。
在克隆facechain源文件(克隆方法可以看这里Facechain系列: 独立安装)后的文件夹中新建一个imgs目录,将训练使用的人物照片保存在该目录下,然后执行直接运行如下命令来进行训练:
accelerate launch
facechain/train_text_to_image_lora.py
--pretrained_model_name_or_path="ly261666/cv_portrait_model" #modelscope初始训练模型
--revision="v2.0"
--sub_path="film/film" #这个目录在modelscope的缓存目录中
--dataset_name="./imgs"
--output_dataset_name="./processed" #在processed目录下可以看到训练使用的人物照片
--output_dir="./output" #训练完成后,在output目录下会生成pytorch_lora_weights.bin文件,可用于后续推理使用。
--caption_column="text"
--resolution=512
--random_flip
--train_batch_size=1
--num_train_epochs=200
--checkpointing_steps=5000
--learning_rate=1.5e-04
--lr_scheduler="cosine"
--lr_warmup_steps=0
--seed=42
--lora_r=4
--lora_alpha=32
--lora_text_encoder_r=32
--lora_text_encoder_alpha=32
--resume_from_checkpoint='fromfacecommon'
说明:
在processed_labeled目录下可以看到经过处理分析,可以使用的人物照片的轮廓图。如果处理时发现原始图片无法用于训练,比如照片中出现多个人脸,就不会出现在这个目录中。
这篇关于Facechain系列:命令行进行LoRA训练的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!