mmyolo专题

mmyolo

cal_map2测试有问题, /home/lsw/miniconda3/envs/mmyolo/lib/python3.8/site-packages/torch/functional.py:445: UserWarning: torch.meshgrid: in an upcoming release, it will be required to pass the indexing a

【YOLO改进】换遍MMDET主干网络之EfficientNet(基于MMYOLO)

EfficientNet EfficientNet是Google在2019年提出的一种新型卷积神经网络架构,其设计初衷是在保证模型性能的同时,尽可能地降低模型的复杂性和计算需求。EfficientNet的核心思想是通过均衡地调整网络的深度(层数)、宽度(每层的通道数)和分辨率(输入的图像尺寸)这三个维度,以实现模型的性能最大化。 具体来说,EfficientNet使用了一个复合缩放方法(com

【YOLO改进】换遍MMDET主干网络之Pyramid Vision Transformerv2(PVTv2)(基于MMYOLO)

Pyramid Vision Transformer v2(PVTv2) Pyramid Vision Transformer v2(PVTv2)是在PVTv1的基础上进行改进的一种深度学习模型,它同样结合了Transformer架构和金字塔结构,旨在提供更强大的特征表示和更好的性能。 PVTv2的主要改进包括: 降低计算复杂度:通过引入线性复杂度注意层(Linear Complexity

【YOLO改进】换遍MMDET主干网络之SwinTransformer-Tiny(基于MMYOLO)

SwinTransformer-Tiny SwinTransformer-Tiny是Swin Transformer模型的一个轻量级版本。Swin Transformer是微软亚洲研究院在2021年提出的一种新型的视觉Transformer,它通过引入移位窗口(Shifted Windows)的概念,实现了层次化的特征表示和线性的计算复杂度,使其在各种视觉任务中都取得了出色的性能。 SwinT

【YOLO改进】换遍IoU损失函数之Innerciou Loss(基于MMYOLO)

替换Inner CIoU损失函数(基于MMYOLO) 由于MMYOLO中没有实现Inner CIoU损失函数,所以需要在mmyolo/models/iou_loss.py中添加Inner CIoU的计算和对应的iou_mode,修改完以后在终端运行 python setup.py install 再在配置文件中进行修改即可。修改例子如下: elif iou_mode == "inn

【YOLO改进】主干插入ShuffleAttention模块(基于MMYOLO)

ShuffleAttention模块 论文链接:https://arxiv.org/abs/2102.00240 将ShuffleAttention模块添加到MMYOLO中 将开源代码ShuffleAttention.py文件复制到mmyolo/models/plugins目录下 导入MMYOLO用于注册模块的包: from mmyolo.registry import MODELS

【YOLO改进】主干插入SKAttention模块(基于MMYOLO)

SKAttention模块 论文链接:https://arxiv.org/pdf/1903.06586.pdf 将SKAttention模块添加到MMYOLO中 将开源代码SK.py文件复制到mmyolo/models/plugins目录下 导入MMYOLO用于注册模块的包: from mmyolo.registry import MODELS 确保 class SKAttention

MMYOLO调试RTMDet--小数据集split_ss_dota_200

背景 用MMYOLO调试旋转目标检测时需要用到dota数据集,根据MMYOLO的官方教程,dota数据集经过处理后变为split_ss_dota,但是该数据集还是很大,对于一些配置比较低的机器要调试比较麻烦,所以这里针对该数据集,挑选了训练集200张图片,测试集30张,便于调试算法。 小数据集在本篇博客配套资源包💐 1. MMYOLO及依赖库的版本 包版本号mmyolo0.6.0m

OpenMMLab MMYOLO目标检测环境搭建(一)

基准和模型动物园概述 支持YOLOv5实例分割 支持基于mmposex的YOLOv5 - pose 添加15分钟实例分割教程 YOLOv5支持使用掩码注释来优化bbox Add多尺度训练和测试文档。 有关发布历史和更新细节,请参阅changelog。 所有模型均在 COCO train2017 数据集上进行训练,并在 val2017 数据集上进行评估。 TRT-FP16-GPU-Laten