bop数据合并到COCO

2023-11-30 04:30
文章标签 数据 合并 coco bop

本文主要是介绍bop数据合并到COCO,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bop数据合并到COCO

  • JSON转TXT
  • 重命名
  • txt文件中类别信息的转换

JSON转TXT


import json
import os,globcategories = [{"id": 12,"name": "OREO","supercategory": "icbin"},{"id": 16,"name": "Paper Cup","supercategory": "icbin"},{"id": 4,"name": "School Glue","supercategory": "icbin"},{"id": 7,"name": "Straw Cups","supercategory": "icbin"},{"id": 9,"name": "Highland","supercategory": "icbin"},{"id": 10,"name": "Soueakair","supercategory": "icbin"},{"id": 2,"name": "Cheez-it","supercategory": "icbin"},{"id": 1,"name": "Copper Plus","supercategory": "icbin"},{"id": 8,"name": "Stir Stick","supercategory": "icbin"},{"id": 14,"name": "Stanley","supercategory": "icbin"},{"id": 3,"name": "Crayola","supercategory": "icbin"},{"id": 13,"name": "Mirado","supercategory": "icbin"},{"id": 11,"name": "Munchkin","supercategory": "icbin"},{"id": 6,"name": "Greenies","supercategory": "icbin"},{"id": 5,"name": "White Board Cake","supercategory": "icbin"},{"id": 15,"name": "Main Arm","supercategory": "icbin"}]def convert(size, box):dw = 1. / (size[0])dh = 1. / (size[1])x = box[0] + box[2] / 2.0y = box[1] + box[3] / 2.0w = box[2]h = box[3]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)def to_yolo(data_path):json_path=data_path+'/scene_gt_coco.json' save_path = data_path+ '/labels/'json_file =   json_path # COCO Object Instance 类型的标注ana_txt_save_path = save_path  # 保存的路径data = json.load(open(json_file, 'r'))if not os.path.exists(ana_txt_save_path):os.makedirs(ana_txt_save_path)id_map = {} # coco数据集的id不连续!重新映射一下再输出!print(data['categories'])# # categories = sorted(data['categories'], key=lambda x: x['id'])for i, category in enumerate(categories): # id_map[category['id']] = int(category['id'])id_map[category['id']] = i# 通过事先建表来降低时间复杂度max_id = 0for img in data['images']:max_id = max(max_id, img['id'])# 注意这里不能写作 [[]]*(max_id+1),否则列表内的空列表共享地址img_ann_dict = [[] for i in range(max_id+1)] for i, ann in enumerate(data['annotations']):img_ann_dict[ann['image_id']].append(i)for img in data['images']:filename = img["file_name"]img_width = img["width"]img_height = img["height"]img_id = img["id"]head, tail = os.path.splitext(filename)ana_txt_name = head.split('/')[-1] + ".txt"  # 对应的txt名字,与jpg一致f_txt = open(os.path.join(ana_txt_save_path, ana_txt_name), 'w')'''for ann in data['annotations']:if ann['image_id'] == img_id:box = convert((img_width, img_height), ann["bbox"])f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))'''# 这里可以直接查表而无需重复遍历for ann_id in img_ann_dict[img_id]:ann = data['annotations'][ann_id]box = convert((img_width, img_height), ann["bbox"])f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))f_txt.close()print(f'==> coco to yolo images:{len(data["images"])}, save path: {save_path}')def train_val_test(data_path):sets = ['train','val','test']#生成txt的文件名称image_ids = glob.glob(os.path.join(data_path, 'images', '*.jpg'))train_ratio = 0.7  # 训练集比例val_ratio = 0.2  # 验证集比例test_ratio = 0.1  # 测试集比例train_size = int(len(image_ids) * train_ratio)val_size = int(len(image_ids) * val_ratio)test_size = len(image_ids) - train_size - val_sizedata  = [image_ids[:train_size], image_ids[train_size:train_size + val_size], image_ids[train_size + val_size:]]for i, image_set in enumerate(sets):image_ids = data[i]list_file = open(data_path+'/%s.txt' % (image_set), 'w')for image_id in image_ids:image_id = image_id.replace('/rgb','/images')list_file.write(image_id + "\n")# convert_annotation(image_id)# 关闭文件list_file.close()print(f'==> train image: {train_size}')print(f'==> valid image: {val_size}')print(f'==> test  image: {test_size}')if __name__ == '__main__':data_path = 'H:/Dataset/COCO/train_pbr/000002'to_yolo(data_path)train_val_test(data_path)# print([cat['name'] for cat in categories])

在这里插入图片描述

重命名

以00000061*开头

在这里插入图片描述

txt文件中类别信息的转换

加79(从0开始,80类的COCO)

import codecs
import ospath = 'H:/Dataset/COCO/train_pbr/000002/labelNew/'  # 标签文件train路径
m = os.listdir(path)
# 读取路径下的txt文件
for n in range(0, len(m)):t = codecs.open('H:/Dataset/COCO/train_pbr/000002/labelNew/' + m[n], mode='r', encoding='utf-8')line = t.readline()  # 以行的形式进行读取文件list1 = []while line:a = line.split()list1.append(a)line = t.readline()t.close()lt = open('H:/Dataset/COCO/train_pbr/000002/labelNew/' + m[n], "w")for num in range(0, len(list1)):list1[num][0] = str(int(list1[num][0])+79)  # 第一列为0时,将0改为1lt.writelines(' '.join(list1[num]) + '\n')  # 每个元素以空格间隔,一行元素写完并换行lt.close()print(m[n] + " 修改完成")

在这里插入图片描述

在这里插入图片描述

这篇关于bop数据合并到COCO的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/435616

相关文章

SQL中如何添加数据(常见方法及示例)

《SQL中如何添加数据(常见方法及示例)》SQL全称为StructuredQueryLanguage,是一种用于管理关系数据库的标准编程语言,下面给大家介绍SQL中如何添加数据,感兴趣的朋友一起看看吧... 目录在mysql中,有多种方法可以添加数据。以下是一些常见的方法及其示例。1. 使用INSERT I

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

mysql中的数据目录用法及说明

《mysql中的数据目录用法及说明》:本文主要介绍mysql中的数据目录用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、版本3、数据目录4、总结1、背景安装mysql之后,在安装目录下会有一个data目录,我们创建的数据库、创建的表、插入的

Navicat数据表的数据添加,删除及使用sql完成数据的添加过程

《Navicat数据表的数据添加,删除及使用sql完成数据的添加过程》:本文主要介绍Navicat数据表的数据添加,删除及使用sql完成数据的添加过程,具有很好的参考价值,希望对大家有所帮助,如有... 目录Navicat数据表数据添加,删除及使用sql完成数据添加选中操作的表则出现如下界面,查看左下角从左

SpringBoot中4种数据水平分片策略

《SpringBoot中4种数据水平分片策略》数据水平分片作为一种水平扩展策略,通过将数据分散到多个物理节点上,有效解决了存储容量和性能瓶颈问题,下面小编就来和大家分享4种数据分片策略吧... 目录一、前言二、哈希分片2.1 原理2.2 SpringBoot实现2.3 优缺点分析2.4 适用场景三、范围分片

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模