YOLOv8目标跟踪model.track的封装

2024-06-22 03:28

本文主要是介绍YOLOv8目标跟踪model.track的封装,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

YOLOv8目标跟踪model.track的封装

flyfish

在使用目标跟踪时, 调用model.track整个步骤就完成,track封装了内部运行的步骤。这里主要说回调部分。
使用model.track

import cv2from ultralytics import YOLO
from collections import defaultdict
import numpy as nptrack_history = defaultdict(lambda: [])
# Open the video file
video_path = "1.mp4"model = YOLO("yolov8s.pt")# Open the video filecap = cv2.VideoCapture(video_path)# Retrieve video properties: width, height, and frames per second
w, h, fps = (int(cap.get(x)) for x in (cv2.CAP_PROP_FRAME_WIDTH, cv2.CAP_PROP_FRAME_HEIGHT, cv2.CAP_PROP_FPS))# Initialize video writer to save the output video with the specified properties
out = cv2.VideoWriter("detection-object-tracking-bytetrack.avi", cv2.VideoWriter_fourcc(*"MJPG"), fps, (w, h))# Loop through the video frames
while cap.isOpened():# Read a frame from the videosuccess, frame = cap.read()if success:# Run YOLOv8 tracking on the frame, persisting tracks between framesresults = model.track(frame, persist=True,tracker="bytetrack.yaml")# Get the boxes and track IDsboxes = results[0].boxes.xywh.cpu()track_ids = results[0].boxes.id.int().cpu().tolist()# Visualize the results on the frameannotated_frame = results[0].plot()# Plot the tracksfor box, track_id in zip(boxes, track_ids):x, y, w, h = boxtrack = track_history[track_id]track.append((float(x), float(y)))  # x, y center pointif len(track) > 30:  # retain 90 tracks for 90 framestrack.pop(0)# Draw the tracking linespoints = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))cv2.polylines(annotated_frame,[points],isClosed=False,color=(230, 230, 230),thickness=10,) # Display the annotated frameout.write(annotated_frame)cv2.imshow("YOLOv8 Tracking", annotated_frame)# Break the loop if 'q' is pressedif cv2.waitKey(1) & 0xFF == ord("q"):breakelse:# Break the loop if the end of the video is reachedbreak# Release the video capture object and close the display window
out.release()
cap.release()
cv2.destroyAllWindows()

model.track 背后就是回调
我们分析下它的回调代码
model.predict()方法会触发on_predict_starton_predict_postprocess_end事件
分析回调

from functools import partial
from pathlib import Pathimport torchfrom ultralytics.utils import IterableSimpleNamespace, yaml_load
from ultralytics.utils.checks import check_yamlfrom .bot_sort import BOTSORT
from .byte_tracker import BYTETracker# A mapping of tracker types to corresponding tracker classes
TRACKER_MAP = {"bytetrack": BYTETracker, "botsort": BOTSORT}def on_predict_start(predictor: object, persist: bool = False) -> None:"""Initialize trackers for object tracking during prediction.Args:predictor (object): The predictor object to initialize trackers for.persist (bool, optional): Whether to persist the trackers if they already exist. Defaults to False.Raises:AssertionError: If the tracker_type is not 'bytetrack' or 'botsort'."""if hasattr(predictor, "trackers") and persist:returntracker = check_yaml(predictor.args.tracker)cfg = IterableSimpleNamespace(**yaml_load(tracker))if cfg.tracker_type not in {"bytetrack", "botsort"}:raise AssertionError(f"Only 'bytetrack' and 'botsort' are supported for now, but got '{cfg.tracker_type}'")trackers = []for _ in range(predictor.dataset.bs):tracker = TRACKER_MAP[cfg.tracker_type](args=cfg, frame_rate=30)trackers.append(tracker)if predictor.dataset.mode != "stream":  # only need one tracker for other modes.breakpredictor.trackers = trackerspredictor.vid_path = [None] * predictor.dataset.bs  # for determining when to reset tracker on new videodef on_predict_postprocess_end(predictor: object, persist: bool = False) -> None:"""Postprocess detected boxes and update with object tracking.Args:predictor (object): The predictor object containing the predictions.persist (bool, optional): Whether to persist the trackers if they already exist. Defaults to False."""path, im0s = predictor.batch[:2]is_obb = predictor.args.task == "obb"is_stream = predictor.dataset.mode == "stream"for i in range(len(im0s)):tracker = predictor.trackers[i if is_stream else 0]vid_path = predictor.save_dir / Path(path[i]).nameif not persist and predictor.vid_path[i if is_stream else 0] != vid_path:tracker.reset()predictor.vid_path[i if is_stream else 0] = vid_pathdet = (predictor.results[i].obb if is_obb else predictor.results[i].boxes).cpu().numpy()if len(det) == 0:continuetracks = tracker.update(det, im0s[i])if len(tracks) == 0:continueidx = tracks[:, -1].astype(int)predictor.results[i] = predictor.results[i][idx]update_args = {"obb" if is_obb else "boxes": torch.as_tensor(tracks[:, :-1])}predictor.results[i].update(**update_args)def register_tracker(model: object, persist: bool) -> None:"""Register tracking callbacks to the model for object tracking during prediction.Args:model (object): The model object to register tracking callbacks for.persist (bool): Whether to persist the trackers if they already exist."""model.add_callback("on_predict_start", partial(on_predict_start, persist=persist))model.add_callback("on_predict_postprocess_end", partial(on_predict_postprocess_end, persist=persist))

简单仿写,可以独立运行

 def on_predict_start(predictor: object, persist: bool = False) -> None:# 回调函数代码print("on_predict_start")passdef on_predict_postprocess_end(predictor: object, persist: bool = False) -> None:# 回调函数代码print("on_predict_postprocess_end")pass
from functools import partialdef register_tracker(model: object, persist: bool) -> None:model.add_callback("on_predict_start", partial(on_predict_start, persist=persist))model.add_callback("on_predict_postprocess_end", partial(on_predict_postprocess_end, persist=persist))from functools import partialclass Model:def __init__(self):self.callbacks = {"on_predict_start": [], "on_predict_postprocess_end": []}def add_callback(self, event, callback):if event in self.callbacks:self.callbacks[event].append(callback)def predict(self):# 触发'on_predict_start'事件for callback in self.callbacks["on_predict_start"]:callback(self)# 模拟预测过程print("Predicting...")# 触发'on_predict_postprocess_end'事件for callback in self.callbacks["on_predict_postprocess_end"]:callback(self)# 使用例子 model.predict()方法会触发on_predict_start和on_predict_postprocess_end事件,调用已注册的回调函数。
model = Model()
register_tracker(model, persist=True)
model.predict()

输出

on_predict_start
Predicting...
on_predict_postprocess_end

partial应用在回调函数中
在回调函数的场景中,partial 特别有用,因为它允许预设某些参数,而不是在每次调用时都传入这些参数。

假设有一个回调函数,它需要两个参数,但是在注册回调函数时,只能传入一个参数:

def callback_function(event, persist):print(f"Event: {event}, Persist: {persist}")

希望将这个函数作为回调函数,但是只希望在事件发生时传入 event 参数,而 persist 参数是预设好的。这时可以使用 partial:

from functools import partial# 预设 persist 参数
partial_callback = partial(callback_function, persist=True)# 当事件发生时,只需要传入 event 参数
partial_callback(event="on_predict_start")  # 输出: Event: on_predict_start, Persist: True

这篇关于YOLOv8目标跟踪model.track的封装的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1083152

相关文章

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

JavaSE——封装、继承和多态

1. 封装 1.1 概念      面向对象程序三大特性:封装、继承、多态 。而类和对象阶段,主要研究的就是封装特性。何为封装呢?简单来说就是套壳屏蔽细节 。     比如:对于电脑这样一个复杂的设备,提供给用户的就只是:开关机、通过键盘输入,显示器, USB 插孔等,让用户来和计算机进行交互,完成日常事务。但实际上:电脑真正工作的却是CPU 、显卡、内存等一些硬件元件。

哈希表的封装和位图

文章目录 2 封装2.1 基础框架2.2 迭代器(1)2.3 迭代器(2) 3. 位图3.1 问题引入3.2 左移和右移?3.3 位图的实现3.4 位图的题目3.5 位图的应用 2 封装 2.1 基础框架 文章 有了前面map和set封装的经验,容易写出下面的代码 // UnorderedSet.h#pragma once#include "HashTable.h"

Verybot之OpenCV应用三:色标跟踪

下面的这个应用主要完成的是Verybot跟踪色标的功能,识别部分还是居于OpenCV编写,色标跟踪一般需要将图像的颜色模式进行转换,将RGB转换为HSV,因为对HSV格式下的图像进行识别时受光线的影响比较小,但是也有采用RGB模式来进行识别的情况,这种情况一般光线条件比较固定,背景跟识别物在颜色上很容易区分出来。         下面这个程序的流程大致是这样的:

MVC(Model-View-Controller)和MVVM(Model-View-ViewModel)

1、MVC MVC(Model-View-Controller) 是一种常用的架构模式,用于分离应用程序的逻辑、数据和展示。它通过三个核心组件(模型、视图和控制器)将应用程序的业务逻辑与用户界面隔离,促进代码的可维护性、可扩展性和模块化。在 MVC 模式中,各组件可以与多种设计模式结合使用,以增强灵活性和可维护性。以下是 MVC 各组件与常见设计模式的关系和作用: 1. Model(模型)

[数据集][目标检测]血细胞检测数据集VOC+YOLO格式2757张4类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):2757 标注数量(xml文件个数):2757 标注数量(txt文件个数):2757 标注类别数:4 标注类别名称:["Platelets","RBC","WBC","sickle cell"] 每个类别标注的框数:

封装MySQL操作时Where条件语句的组织

在对数据库进行封装的过程中,条件语句应该是相对难以处理的,毕竟条件语句太过于多样性。 条件语句大致分为以下几种: 1、单一条件,比如:where id = 1; 2、多个条件,相互间关系统一。比如:where id > 10 and age > 20 and score < 60; 3、多个条件,相互间关系不统一。比如:where (id > 10 OR age > 20) AND sco

Linux内置的审计跟踪工具:last命令

如果你是一个服务器管理员,你或许知道你要保护你的服务器的话,不仅是从外部,还要从内部保护。Linux有一个内置工具来看到最后登陆服务器的用户,可以帮助你保护服务器。   这个命令是last。它对于追踪非常有用。让我们来看一下last可以为你做些什么。   last命令的功能是什么   last显示的是自/var/log/wtmp文件创建起所有登录(和登出)的用户。这个文件是二进制

YOLOv8/v10+DeepSORT多目标车辆跟踪(车辆检测/跟踪/车辆计数/测速/禁停区域/绘制进出线/绘制禁停区域/车道车辆统计)

01:YOLOv8 + DeepSort 车辆跟踪 该项目利用YOLOv8作为目标检测模型,DeepSort用于多目标跟踪。YOLOv8负责从视频帧中检测出车辆的位置,而DeepSort则负责关联这些检测结果,从而实现车辆的持续跟踪。这种组合使得系统能够在视频流中准确地识别并跟随特定车辆。 02:YOLOv8 + DeepSort 车辆跟踪 + 任意绘制进出线 在此基础上增加了用户

YOLOv8改进实战 | 注意力篇 | 引入CVPR2024 PKINet 上下文锚点注意力CAAttention

YOLOv8专栏导航:点击此处跳转 前言 YOLOv8 是由 YOLOv5 的发布者 Ultralytics 发布的最新版本的 YOLO。它可用于对象检测、分割、分类任务以及大型数据集的学习,并且可以在包括 CPU 和 GPU 在内的各种硬件上执行。 YOLOv8 是一种尖端的、最先进的 (SOTA) 模型,它建立在以前成功的 YOLO 版本的基础上,并引入了新的功能和改进,以