【YOLOV5 入门】——detect.py简单解析模型检测基于torch.hub的检测方法

2024-03-28 15:52

本文主要是介绍【YOLOV5 入门】——detect.py简单解析模型检测基于torch.hub的检测方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

声明:笔记是毕设时根据B站博主视频学习时自己编写,请勿随意转载!

一、打开detect.py(文件解析)

打开上节桌面创建的yolov5-7.0文件夹里的detect.py文件(up主使用的是VScode,我这里使用pycharm)

YOLOv5中的detect.py文件是用于执行目标检测任务的主要脚本文件。一般来说,detect.py文件包含以下几个主要部分(代码只截取部分):

  • 导入库和依赖项:包括导入PyTorch库、其他必要的Python库以及YOLOv5相关的自定义库和模块。

  • import argparse  #用于解析命令行参数的模块
    import os        #用于与操作系统交互的模块
    import platform  #用于获取操作系统平台信息的模块
    import sys       #用于访问Python解释器相关信息的模块
    from pathlib import Path  #用于处理文件路径的模块中的Path类import torch     #PyTorch库#常量和全局变量的定义,包括FILE、ROOT、以及一些默认参数。
    FILE = Path(__file__).resolve()
    ROOT = FILE.parents[0]  # YOLOv5 root directory
    if str(ROOT) not in sys.path:sys.path.append(str(ROOT))  # add ROOT to PATH
    ROOT = Path(os.path.relpath(ROOT, Path.cwd()))  # relativefrom models.common import DetectMultiBackend
    ...
  • 定义运行函数(加载模型:加载预训练的YOLOv5模型,通常是通过torch.load()函数加载预训练权重文件。图像预处理:对输入图像进行预处理,例如调整大小、归一化、转换为张量等操作。执行检测:利用加载的模型对预处理后的图像进行目标检测,通常是通过调用模型的前向传播方法来实现。后处理:对检测结果进行后处理,包括解析预测结果、筛选置信度较低的检测框、进行非极大值抑制(NMS)等操作。可视化结果:将检测结果可视化并保存到指定的输出目录中,通常包括绘制检测框、标签、置信度等信息。结果输出:将处理后的结果输出到文件或者打印到控制台,通常包括检测到的目标类别、位置信息以及置信度等。)

  • @smart_inference_mode()
    def run(weights=ROOT / 'yolov5s.pt',  # model path or triton URLsource=ROOT / 'data/images',  # file/dir/URL/glob/screen/0(webcam)data=ROOT / 'data/coco128.yaml',  # dataset.yaml pathimgsz=(640, 640),  # inference size (height, width)conf_thres=0.25,  # confidence thresholdiou_thres=0.45,  # NMS IOU threshold
    ...# Directories处理输入参数和设置运行环境,如模型路径、数据路径、设备选择、保存路径等save_dir = increment_path(Path(project) / name, exist_ok=exist_ok)  # increment run
    ...# Load model加载模型,并根据输入图像大小进行适当调整device = select_device(device)model = DetectMultiBackend(weights, device=device, dnn=dnn, data=data, fp16=half)
    ...# Dataloader加载数据,支持从文件、目录、URL以及摄像头等多种数据源bs = 1  # batch_sizeif webcam:view_img = check_imshow(warn=True)
    ...# Run inference执行目标检测,包括图像预处理、模型推理、后处理(非极大值抑制、结果解析等)等操作。model.warmup(imgsz=(1 if pt or model.triton else bs, 3, *imgsz))  # warmup
    ...# Inference模型推理
    ...# NMS非极大值抑制
    ...# Process predictions每张图像的检测结果进行可视化,并根据参数选择是否保存结果
    ...# Print results输出检测结果和性能统计信息
    ...
  • 解析命令行参数函数,就是在terminal终端指定参数进行解析

    def parse_opt():parser = argparse.ArgumentParser()parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'yolov5s.pt', help='model path or triton URL')parser.add_argument('--source', type=str, default=ROOT / 'data/images', help='file/dir/URL/glob/screen/0(webcam)')parser.add_argument('--data', type=str, default=ROOT / 'data/coco128.yaml', help='(optional) dataset.yaml path')parser.add_argument('--imgsz', '--img', '--img-size', nargs='+', type=int, default=[640], help='inference size h,w')parser.add_argument('--conf-thres', type=float, default=0.25, help='confidence threshold')parser.add_argument('--iou-thres', type=float, default=0.45, help='NMS IoU threshold')parser.add_argument('--max-det', type=int, default=1000, help='maximum detections per image')
    ...
  • 主函数

#主函数用于检查环境要求并调用run函数执行目标检测任务
def main(opt):check_requirements(exclude=('tensorboard', 'thop'))run(**vars(opt))
  •  辅助函数
"""
最后这段代码是Python中的一个常用的惯用法,
这样设计的好处是,在将脚本作为主程序直接执行时,会执行主要的逻辑;
而当将脚本作为模块导入到其他程序中时,不会执行主要逻辑,
而是只导入函数和类等定义,以供其他程序使用。
"""
if __name__ == "__main__":  #判断当前模块是否是作为主程序直接执行的opt = parse_opt()       #首先调用parse_opt()函数解析命令行参数,并将解析后的参数保存到变量opt中main(opt)               #将解析后的参数opt作为参数传递给main函数,执行主要的目标检测任务逻辑

二、指定关键参数(模型检测)

detect.py文件最上面的注释中有关键参数的可选值以及意义说明

1、weights:训练好的模型文件

YOLOv5官方网站有各种模型,可以选择使用。这里使用yolov5-7.0文件夹自带的yolov5s.pt模型文件。终端输入以下命令(注意先激活环境):

python detect.py --weights yolov5s.pt

推理完成,第一张图检测出4个人,1辆车,第2张图检测出2个人,2个领带(还是模型自带的data\images里的两张图片),保存路径再run\detect\exp3

也可以在官网下载其他weights模型文件:

  • yolov5l.pt
  • yolov5x.pt
  • yolov5n.pt
  • yolov5m.pt等

2、source:指定检测的目标

可以是单张图片、文件夹、屏幕或者摄像头。(在上面没指定sources默认执行检测data\images自带的那两个图片)

①对图片进行检测(代码最后一段是图片路径data\images里的bus

python detect.py --weights yolov5s.pt --source data/images/bus.jpg

②对屏幕检测

python detect.py --weights yolov5s.pt --source screen

3、conf-thres:置信度阈值

越高要求越严,最后的框越少;越低要求越低,框越多。下面是设定不同置信度阈值的结果:

python detect.py --weights yolov5s.pt --conf-thres 0.85

python detect.py --weights yolov5s.pt --conf-thres 0.65

python detect.py --weights yolov5s.pt --conf-thres 0.25

4、iou-thres:IOU阈值

可以理解为conf-thres相反,越低框越少,越高框越多。此处不做赘述。

5、其他

--max-det 指定最大的检测数量;--device指定设备;--view-img检测完可以弹出检测结果,其他的可以自行查找或者询问GPT

三、基于torch.hub的检测方法

1、简介

基于torch.hub的检测方法是一种利用PyTorch Hub的功能来进行目标检测任务的方法。

PyTorch Hub是PyTorch官方提供的一个模型库预训练模型资源平台,它提供了许多经过预训练的深度学习模型,包括图像分类、目标检测、语义分割等任务的模型。

在进行目标检测时,可以通过torch.hub.load()函数来加载PyTorch Hub中提供的目标检测模型,然后利用加载的模型进行目标检测任务。通常,PyTorch Hub中提供的目标检测模型会在标准数据集上进行了预训练,例如COCO数据集,因此这些模型通常具有较好的检测性能。

2、实操

该detect.py文件的内容太多,到后续的可视化界面设计等章节时会造成不便,这里可以尝试基于torch.hub的检测方法,只需要几行代码

import torch#Model ,第一个参数是模型所在文件夹
model= torch.hub.load("./", "yolov5s", source = "local")#Images对象路径
img = "./data/images/zidane.jpg"#Interence执行检测
results = model(img)#Results
results.show()

这里出现了一个问题,直接右键点击“运行”弹出找不到torch(似乎不在环境内),只能在下面的“terminal”终端,激活yolov5环境后用命令运行:

conda activate yolov5

python hub_detect.py

调查设置的项目解释器后发现似乎之前的torch、pillow包都安装在了之前我学习ML时安装的python3.6的环境,而新安装的miniconda环境里却没有,这个怎么回事??但是无论解释器配置为python3.6还是miniconda环境,都能在虚拟环境的终端运行,这个会影响后续吗??

结果如下:

3、用Jupyter运行

也可使用jupyter运行(观察结果更方便)

pip install jupyterlab

使用国内镜像安装的时候要把翻Q软件关了!

然后在根目录下新建一个hub_detect.ipynb的文件:

运行时报错说环境未安装jupyter package,似乎是我装的python环境太多这里没选定造成,这里添加下新安装的conda环境(没问题的可以跳过):

然后点击提示install jupyter package

这里安装太慢不做演示,最后运行也可以成功。

虽说hub_detec方法的检测参数没有原来的detect.py文件丰富,但十分利于后续的封装!!


四、拓展

有时候一些知识简单拓展下,日积月累就可对这个领域了解更深刻!

1、torch.hub.load()其他参数

torch.hub.load()函数还有一个常用参数pretrained。pretrained=Truetorch.hub.load()函数的一个参数,用于指示是否加载预训练的模型权重

  • pretrained=True时,torch.hub.load()函数会从指定的模型文件夹中加载预训练的权重,这些权重通常是在大规模数据集上进行训练得到的,并具有一定的泛化能力。加载预训练权重的模型通常可以直接用于实际任务中,而不需要再进行额外的训练。
  • 当pretrained=False或者不指定这个参数,torch.hub.load()函数将加载模型的结构定义文件,但不会加载预训练的权重。这样加载的模型是一个随机初始化的模型,需要用户自行进行训练,或者使用迁移学习等方法进行参数微调,才能适应具体的任务。

其他参数了解:

2、YOLO和Mask R-CNN对比

YOLO(You Only Look Once)Mask R-CNN都是用于目标检测的流行算法,但它们在设计理念和算法结构上有很大的不同。以下是它们之间的关系和区别:

关系:

  • 目标检测任务:YOLO和Mask R-CNN都是用于解决目标检测任务的,即在图像中检测并定位图像中的目标对象。

  • 深度学习框架:两者都是基于深度学习技术实现的,可以使用主流的深度学习框架(如TensorFlow、PyTorch)进行实现。

区别:

  • 检测方式

    • YOLO:采用单阶段(One-Stage)检测方法,将目标检测任务视为回归问题,直接通过卷积神经网络输出目标的位置和类别信息。
    • Mask R-CNN:采用两阶段(Two-Stage)检测方法,首先利用区域建议网络(Region Proposal Network,RPN)生成候选区域,然后对候选区域进行分类和边界框回归,同时还可以生成目标的分割掩码
  • 输出信息

    • YOLO:输出每个检测框的边界框位置置信度以及对应的类别信息。
    • Mask R-CNN:除了输出边界框位置和类别信息外,还额外输出了目标的分割掩码信息。
  • 精度和速度

    • YOLO:因为采用单阶段检测方法,YOLO在速度上通常比较,但相对精度可能稍逊于两阶段方法。
    • Mask R-CNN:虽然在精度上可能更优,但由于采用两阶段检测方法,速度通常会较
  • 应用场景

    • YOLO:由于速度快且适合实时应用,常被用于需要快速检测的应用场景,如自动驾驶、视频监控等。
    • Mask R-CNN:由于精度较高,常被用于需要精确目标检测和分割的场景,如医学图像分析、遥感图像分析等。

综上所述,YOLOMask R-CNN在目标检测任务中有着不同的设计理念和算法结构,适用于不同的应用场景和需求。选择合适的算法取决于具体的任务要求和性能指标。


往期精彩

STM32专栏(付费9.9)icon-default.png?t=N7T8http://t.csdnimg.cn/E2F88

OpenCV-Python专栏(付费9.9)icon-default.png?t=N7T8http://t.csdnimg.cn/zK1jV

AI底层逻辑专栏(付费9.9)icon-default.png?t=N7T8http://t.csdnimg.cn/zic0f

机器学习专栏(免费)icon-default.png?t=N7T8http://t.csdnimg.cn/FaXzAFreeRTOS专栏(免费)icon-default.png?t=N7T8http://t.csdnimg.cn/SjIqU电机控制专栏(免费)icon-default.png?t=N7T8http://t.csdnimg.cn/FNWM7

这篇关于【YOLOV5 入门】——detect.py简单解析模型检测基于torch.hub的检测方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/856040

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu2289(简单二分)

虽说是简单二分,但是我还是wa死了  题意:已知圆台的体积,求高度 首先要知道圆台体积怎么求:设上下底的半径分别为r1,r2,高为h,V = PI*(r1*r1+r1*r2+r2*r2)*h/3 然后以h进行二分 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#includ

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

usaco 1.3 Prime Cryptarithm(简单哈希表暴搜剪枝)

思路: 1. 用一个 hash[ ] 数组存放输入的数字,令 hash[ tmp ]=1 。 2. 一个自定义函数 check( ) ,检查各位是否为输入的数字。 3. 暴搜。第一行数从 100到999,第二行数从 10到99。 4. 剪枝。 代码: /*ID: who jayLANG: C++TASK: crypt1*/#include<stdio.h>bool h