本文主要是介绍YOLO算法检测模型训练参数大合集!!再也不用看不懂超参啦!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
参数 | 默认值 | 描述 |
---|---|---|
model | None | 指定用于训练的模型文件。接受预训练模型(.pt 文件)或配置文件(.yaml 文件)的路径。对于定义模型结构或初始化权重至关重要。 |
data | None | 数据集配置文件的路径(例如,coco8.yaml )。该文件包含特定于数据集的参数,包括训练和验证数据的路径、类名以及类的数量。 |
epochs | 100 | 训练的总轮数。每个轮数代表对整个数据集的完整遍历。调整此值会影响训练持续时间和模型性能。 |
time | None | 最大训练时间(以小时为单位)。如果设置,将覆盖 epochs 参数,允许在达到指定持续时间后自动停止训练。对于时间受限的训练场景很有用。 |
patience | 100 | 在验证指标没有改善的情况下等待的轮数,之后提前停止训练。当性能稳定时,通过停止训练来防止过拟合。 |
batch | 16 | 训练的批处理大小,表示在更新模型的内部参数之前处理的图像数量。AutoBatch(batch=-1)根据 GPU 内存可用性动态调整批处理大小。 |
imgsz | 640 | 训练的目标图像大小。所有图像在输入模型之前都将被调整到此维度。影响模型准确度和计算复杂性。 |
save | True | 启用训练检查点和最终模型权重的保存。对于恢复训练或模型部署很有用。 |
save_period | -1 | 保存模型检查点的频率,以轮数(epochs)为单位。值-1禁用此功能。在长时间的训练过程中,保存中间模型很有用。 |
cache | False | 启用数据集图像的内存缓存(True/ram)、磁盘缓存(disk)或禁用(False)。通过减少磁盘I/O来提高训练速度,但会增加内存使用。 |
device | None | 指定用于训练的计算设备:单个GPU(device=0)、多个GPU(device=0,1)、CPU(device=cpu)或Apple Silicon的MPS(device=mps)。 |
workers | 8 | 数据加载的工作线程数(如果是多GPU训练,则每个RANK一个)。影响数据预处理和输入模型的速度,在多GPU设置中尤其有用。 |
project | None | 保存训练输出的项目目录名称。允许组织存储不同的实验。 |
name | None | 训练运行的名称。用于在项目文件夹内创建子目录,其中存储训练日志和输出。 |
exist_ok | False | 如果为True,则允许覆盖已存在的项目/名称目录。在不需要手动清除先前输出的情况下进行迭代实验时很有用。 |
pretrained | True | 确定是否从预训练模型开始训练。可以是一个布尔值或特定模型的字符串路径,从中加载权重。提高训练效率和模型性能。 |
optimizer | 'auto' | 训练时优化器的选择。选项包括SGD、Adam、AdamW、NAdam、RAdam、RMSProp等,或'auto'以根据模型配置自动选择。影响收敛速度和稳定性。 |
verbose | False | 启用训练期间的详细输出,提供详细的日志和进度更新。对于调试和密切监控训练过程很有用。 |
seed | 0 | 设置训练的随机种子,确保在相同配置下运行的结果可复现。 |
deterministic | True | 强制使用确定性算法,确保可复现性,但可能由于限制非确定性算法而影响性能和速度。 |
single_cls | False | 在训练过程中,将多类数据集中的所有类别视为单个类别。对于二元分类任务或仅关注对象存在性而非分类时很有用。 |
rect | False | 启用矩形训练,优化批次组成以最小化填充。可以提高效率和速度,但可能影响模型准确性。 |
cos_lr | False | 使用余弦学习率调度器,使学习率在训练过程中按余弦曲线进行调整。有助于更好地管理学习率以实现更好的收敛。 |
close_mosaic | 10 | 在最后N个轮次中禁用马赛克数据增强,以在训练完成前稳定训练。设置为0将禁用此功能。 |
resume | False | 从最后保存的检查点恢复训练。自动加载模型权重、优化器状态和轮次计数,无缝继续训练。 |
amp | True | 启用自动混合精度(AMP)训练,减少内存使用,并可能以最小的精度影响加速训练。 |
fraction | 1.0 | 指定用于训练的数据集分数。允许在完整数据集的子集上进行训练,对于实验或资源有限时很有用。 |
profile | False | 在训练期间启用ONNX和TensorRT的速度分析,有助于优化模型部署。 |
freeze | None | 冻结模型的前N层或按索引指定的层,减少可训练参数的数量。对于微调或迁移学习很有用。 |
lr0 | 0.01 | 初始学习率(例如,SGD=1E-2, Adam=1E-3)。调整此值对优化过程至关重要,影响模型权重更新的速度。 |
lrf | 0.01 | 最终学习率作为初始学习率的分数 = (lr0 * lrf),与学习率调度器一起使用,随时间调整学习率。 |
momentum | 0.937 | SGD优化器的动量因子或Adam优化器的beta1,影响当前更新中过去梯度的纳入。 |
weight_decay | 0.0005 | L2正则化项,惩罚大权重以防止过拟合。 |
warmup_epochs | 3.0 | 学习率预热所需的轮次数,逐渐将学习率从低值增加到初始学习率,以在早期稳定训练。 |
warmup_momentum | 0.8 | 预热阶段的初始动量,在预热期间逐渐调整到设定的动量。 |
warmup_bias_lr | 0.1 | 预热阶段偏差参数的学习率,有助于在初始轮次中稳定模型训练。 |
box | 7.5 | 损失函数中边界框损失组件的权重,影响对准确预测边界框坐标的重视程度。 |
cls | 0.5 | 总损失函数中分类损失的权重,影响相对于其他组件正确类别预测的重要性。 |
dfl | 1.5 | 分布焦点损失的权重,在某些YOLO版本中用于细粒度分类。 |
pose | 12.0 | 在训练用于姿态估计的模型中,姿态损失的权重,影响对姿态关键点的准确预测的重视程度。 |
kobj | 2.0 | 在姿态估计模型中,关键点对象性损失的权重,平衡检测置信度与姿态准确性。 |
label_smoothing | 0.0 | 应用标签平滑,将硬标签软化为目标标签和标签上的均匀分布的混合,可能提高泛化能力。 |
nbs | 64 | 损失归一化的名义批次大小。 |
overlap_mask | True | 确定在训练期间分割掩码是否应该重叠,适用于实例分割任务。 |
mask_ratio | 4 | 分割掩码的下采样比率,影响训练期间使用的掩码的分辨率。 |
dropout | 0.0 | 分类任务中的正则化dropout率,通过在训练期间随机省略单元来防止过拟合。 |
val | True | 启用训练期间的验证,允许在单独的数据集上定期评估模型性能。 |
plots | False | 生成并保存训练和验证指标的图表,以及预测示例,为模型性能和学习进度提供视觉洞察。 |
这篇关于YOLO算法检测模型训练参数大合集!!再也不用看不懂超参啦!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!