使用mmdetection来训练自己的数据集(visdrone)(二)数据集

2024-04-29 15:44

本文主要是介绍使用mmdetection来训练自己的数据集(visdrone)(二)数据集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

数据集下载

https://github.com/VisDrone/VisDrone-Dataset

数据集大小:

  • trainset (1.44 GB):
  • valset (0.07 GB):
  • testset-dev (0.28 GB):

VisDrone2019-DET-train.zip
(下载到D:/ultralytics/ultralytics/datasets/VisDrone目录下并解压)
VisDrone2019-DET-val.zip
(下载到D:/ultralytics/ultralytics/datasets/VisDrone目录下并解压)
VisDrone2019-DET-test-dev.zip
(下载到D:/ultralytics/ultralytics/datasets/VisDrone目录下并解压)
VisDrone2019-DET-test-challenge.zip
(下载到D:/ultralytics/ultralytics/datasets/VisDrone目录下并解压)

convert_visdrone2yolo.py (下载到
D:/ultralytics/ultralytics/datasets/VisDrone目录下)
convert_yolo2visdrone.py
注意:VisDrone目录自己创建

visdrone转变代码

import os
from pathlib import Path# 定义一个函数用于将VisDrone数据集的标注转换为YOLO格式的标注
def visdrone2yolo(dir):from PIL import Imagefrom tqdm import tqdm# 定义一个内部函数,用于将VisDrone的bbox坐标转换为YOLO格式的坐标def convert_box(size, box):# VisDrone框转换为YOLO xywh框dw = 1. / size[0]dh = 1. / size[1]return (box[0] + box[2] / 2) * dw, (box[1] + box[3] / 2) * dh, box[2] * dw, box[3] * dh# 创建标签目录,如果不存在则创建(dir / 'labels').mkdir(parents=True, exist_ok=True)# 使用tqdm进度条迭代处理annotations文件夹中的所有txt文件pbar = tqdm((dir / 'annotations').glob('*.txt'), desc=f'Converting {dir}')for f in pbar:# 获取对应图片的大小img_size = Image.open((dir / 'images' / f.name).with_suffix('.jpg')).sizelines = []with open(f, 'r') as file:  # 读取annotation.txt文件for row in [x.split(',') for x in file.read().strip().splitlines()]:if row[4] == '0':  # 忽略VisDrone中的‘ignored regions’类别0continuecls = int(row[5]) - 1box = convert_box(img_size, tuple(map(int, row[:4])))lines.append(f"{cls} {' '.join(f'{x:.6f}' for x in box)}\n")with open(str(f).replace(f'{os.sep}annotations{os.sep}', f'{os.sep}labels{os.sep}'), 'w') as fl:fl.writelines(lines)  # 将转换后的标签写入label.txt文件# 指定数据集的根目录
dir = Path("D:/ultralytics/ultralytics/datasets/VisDrone")# 转换数据集标注
for d in 'VisDrone2019-DET-train', 'VisDrone2019-DET-val', 'VisDrone2019-DET-test-dev':visdrone2yolo(dir / d)  # 转换VisDrone标注为YOLO标签

然后通过yolo转coco的代码

import os
import cv2
import json
from tqdm import tqdm
from sklearn.model_selection import train_test_split
import argparse# 解析命令行参数
parser = argparse.ArgumentParser()
parser.add_argument('--root_dir', default='./dataset/valid', type=str, help="根目录路径,包括./images和./labels及classes.txt")
parser.add_argument('--save_path', type=str, default='./valid.json', help="如果不划分数据集,则提供一个json文件路径")
parser.add_argument('--random_split', action='store_true', help="随机划分数据集,默认比例为8:1:1")
parser.add_argument('--split_by_file', action='store_true', help="根据文件划分数据集,包括./train.txt、./val.txt、./test.txt")arg = parser.parse_args()def train_test_val_split_random(img_paths, ratio_train=0.8, ratio_test=0.1, ratio_val=0.1):# 确保三个比例之和为1assert int(ratio_train + ratio_test + ratio_val) == 1train_img, middle_img = train_test_split(img_paths, test_size=1 - ratio_train, random_state=233)ratio = ratio_val / (1 - ratio_train)val_img, test_img = train_test_split(middle_img, test_size=ratio, random_state=233)print("训练集:验证集:测试集 = {}:{}:{}".format(len(train_img), len(val_img), len(test_img)))return train_img, val_img, test_imgdef train_test_val_split_by_files(img_paths, root_dir):# 根据train.txt, val.txt, test.txt文件定义训练集、验证集和测试集phases = ['train', 'val', 'test']img_split = []for p in phases:define_path = os.path.join(root_dir, f'{p}.txt')print(f'从 {define_path} 读取 {p} 数据集定义')assert os.path.exists(define_path)with open(define_path, 'r') as f:img_paths = f.readlines()# 取消注释下面一行可以使用绝对路径# img_paths = [os.path.split(img_path.strip())[1] for img_path in img_paths]img_split.append(img_paths)return img_split[0], img_split[1], img_split[2]def yolo2coco(arg):root_path = arg.root_dirprint("从路径加载数据", root_path)assert os.path.exists(root_path)originLabelsDir = os.path.join(root_path, 'labels')originImagesDir = os.path.join(root_path, 'images')with open(os.path.join(root_path, 'classes.txt')) as f:classes = f.read().strip().split()indexes = os.listdir(originImagesDir)if arg.random_split or arg.split_by_file:train_dataset = {'categories': [], 'annotations': [], 'images': []}val_dataset = {'categories': [], 'annotations': [], 'images': []}test_dataset = {'categories': [], 'annotations': [], 'images': []}for i, cls in enumerate(classes, 0):category_info = {'id': i, 'name': cls, 'supercategory': 'mark'}train_dataset['categories'].append(category_info)val_dataset['categories'].append(category_info)test_dataset['categories'].append(category_info)if arg.random_split:print("划分模式: 随机划分")train_img, val_img, test_img = train_test_val_split_random(indexes, 0.8, 0.1, 0.1)elif arg.split_by_file:print("划分模式: 根据文件划分")train_img, val_img, test_img = train_test_val_split_by_files(indexes, root_path)else:dataset = {'categories': [], 'annotations': [], 'images': []}for i, cls in enumerate(classes, 0):dataset['categories'].append({'id': i, 'name': cls, 'supercategory': 'mark'})ann_id_cnt = 0for k, index in enumerate(tqdm(indexes)):txtFile = index.replace('images', 'txt').replace('.jpg', '.txt').replace('.png', '.txt')im = cv2.imread(os.path.join(root_path, 'images/') + index)height, width, _ = im.shapeif arg.random_split or arg.split_by_file:if index in train_img:dataset = train_datasetelif index in val_img:dataset = val_datasetelif index in test_img:dataset = test_datasetdataset['images'].append({'file_name': index, 'id': k, 'width': width, 'height': height})if not os.path.exists(os.path.join(originLabelsDir, txtFile)):continuewith open(os.path.join(originLabelsDir, txtFile), 'r') as fr:labelList = fr.readlines()for label in labelList:label = label.strip().split()x = float(label[1])y = float(label[2])w = float(label[3])h = float(label[4])H, W, _ = im.shapex1 = (x - w / 2) * Wy1 = (y - h / 2) * Hx2 = (x + w / 2) * Wy2 = (y + h / 2) * Hcls_id = int(label[0])width = max(0, x2 - x1)height = max(0, y2 - y1)dataset['annotations'].append({'area': width * height,'bbox': [x1, y1, width, height],'category_id': cls_id,'id': ann_id_cnt,'image_id': k,'iscrowd': 0,'segmentation': [[x1, y1, x2, y1, x2, y2, x1, y2]]})ann_id_cnt += 1folder = os.path.join(root_path, 'annotations')if not os.path.exists(folder):os.makedirs(folder)if arg.random_split or arg.split_by_file:for phase in ['train', 'val', 'test']:json_name = os.path.join(root_path, 'annotations/{}.json'.format(phase))with open(json_name, 'w') as f:if phase == 'train':json.dump(train_dataset, f)elif phase == 'val':json.dump(val_dataset, f)elif phase == 'test':json.dump(test_dataset, f)print('已保存注释到 {}'.format(json_name))else:json_name = os.path.join(root_path, 'annotations/{}'.format(arg.save_path))with open(json_name, 'w') as f:json.dump(dataset, f)print('已保存注释到 {}'.format(json_name))if __name__ == "__main__":yolo2coco(arg)

运行代码

python yolo2coco.py --root_dir VisDrone2019-DET-train --save_path train.json
python yolo2coco.py --root_dir VisDrone2019-DET-val --save_path val.json
python yolo2coco.py --root_dir VisDrone2019-DET-test-dev --save_path test.json

这篇关于使用mmdetection来训练自己的数据集(visdrone)(二)数据集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/946502

相关文章

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四

Go语言数据库编程GORM 的基本使用详解

《Go语言数据库编程GORM的基本使用详解》GORM是Go语言流行的ORM框架,封装database/sql,支持自动迁移、关联、事务等,提供CRUD、条件查询、钩子函数、日志等功能,简化数据库操作... 目录一、安装与初始化1. 安装 GORM 及数据库驱动2. 建立数据库连接二、定义模型结构体三、自动迁

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

mysql中的数据目录用法及说明

《mysql中的数据目录用法及说明》:本文主要介绍mysql中的数据目录用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、版本3、数据目录4、总结1、背景安装mysql之后,在安装目录下会有一个data目录,我们创建的数据库、创建的表、插入的