bop数据合并到COCO

2023-11-30 04:30
文章标签 数据 合并 coco bop

本文主要是介绍bop数据合并到COCO,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bop数据合并到COCO

  • JSON转TXT
  • 重命名
  • txt文件中类别信息的转换

JSON转TXT


import json
import os,globcategories = [{"id": 12,"name": "OREO","supercategory": "icbin"},{"id": 16,"name": "Paper Cup","supercategory": "icbin"},{"id": 4,"name": "School Glue","supercategory": "icbin"},{"id": 7,"name": "Straw Cups","supercategory": "icbin"},{"id": 9,"name": "Highland","supercategory": "icbin"},{"id": 10,"name": "Soueakair","supercategory": "icbin"},{"id": 2,"name": "Cheez-it","supercategory": "icbin"},{"id": 1,"name": "Copper Plus","supercategory": "icbin"},{"id": 8,"name": "Stir Stick","supercategory": "icbin"},{"id": 14,"name": "Stanley","supercategory": "icbin"},{"id": 3,"name": "Crayola","supercategory": "icbin"},{"id": 13,"name": "Mirado","supercategory": "icbin"},{"id": 11,"name": "Munchkin","supercategory": "icbin"},{"id": 6,"name": "Greenies","supercategory": "icbin"},{"id": 5,"name": "White Board Cake","supercategory": "icbin"},{"id": 15,"name": "Main Arm","supercategory": "icbin"}]def convert(size, box):dw = 1. / (size[0])dh = 1. / (size[1])x = box[0] + box[2] / 2.0y = box[1] + box[3] / 2.0w = box[2]h = box[3]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)def to_yolo(data_path):json_path=data_path+'/scene_gt_coco.json' save_path = data_path+ '/labels/'json_file =   json_path # COCO Object Instance 类型的标注ana_txt_save_path = save_path  # 保存的路径data = json.load(open(json_file, 'r'))if not os.path.exists(ana_txt_save_path):os.makedirs(ana_txt_save_path)id_map = {} # coco数据集的id不连续!重新映射一下再输出!print(data['categories'])# # categories = sorted(data['categories'], key=lambda x: x['id'])for i, category in enumerate(categories): # id_map[category['id']] = int(category['id'])id_map[category['id']] = i# 通过事先建表来降低时间复杂度max_id = 0for img in data['images']:max_id = max(max_id, img['id'])# 注意这里不能写作 [[]]*(max_id+1),否则列表内的空列表共享地址img_ann_dict = [[] for i in range(max_id+1)] for i, ann in enumerate(data['annotations']):img_ann_dict[ann['image_id']].append(i)for img in data['images']:filename = img["file_name"]img_width = img["width"]img_height = img["height"]img_id = img["id"]head, tail = os.path.splitext(filename)ana_txt_name = head.split('/')[-1] + ".txt"  # 对应的txt名字,与jpg一致f_txt = open(os.path.join(ana_txt_save_path, ana_txt_name), 'w')'''for ann in data['annotations']:if ann['image_id'] == img_id:box = convert((img_width, img_height), ann["bbox"])f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))'''# 这里可以直接查表而无需重复遍历for ann_id in img_ann_dict[img_id]:ann = data['annotations'][ann_id]box = convert((img_width, img_height), ann["bbox"])f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))f_txt.close()print(f'==> coco to yolo images:{len(data["images"])}, save path: {save_path}')def train_val_test(data_path):sets = ['train','val','test']#生成txt的文件名称image_ids = glob.glob(os.path.join(data_path, 'images', '*.jpg'))train_ratio = 0.7  # 训练集比例val_ratio = 0.2  # 验证集比例test_ratio = 0.1  # 测试集比例train_size = int(len(image_ids) * train_ratio)val_size = int(len(image_ids) * val_ratio)test_size = len(image_ids) - train_size - val_sizedata  = [image_ids[:train_size], image_ids[train_size:train_size + val_size], image_ids[train_size + val_size:]]for i, image_set in enumerate(sets):image_ids = data[i]list_file = open(data_path+'/%s.txt' % (image_set), 'w')for image_id in image_ids:image_id = image_id.replace('/rgb','/images')list_file.write(image_id + "\n")# convert_annotation(image_id)# 关闭文件list_file.close()print(f'==> train image: {train_size}')print(f'==> valid image: {val_size}')print(f'==> test  image: {test_size}')if __name__ == '__main__':data_path = 'H:/Dataset/COCO/train_pbr/000002'to_yolo(data_path)train_val_test(data_path)# print([cat['name'] for cat in categories])

在这里插入图片描述

重命名

以00000061*开头

在这里插入图片描述

txt文件中类别信息的转换

加79(从0开始,80类的COCO)

import codecs
import ospath = 'H:/Dataset/COCO/train_pbr/000002/labelNew/'  # 标签文件train路径
m = os.listdir(path)
# 读取路径下的txt文件
for n in range(0, len(m)):t = codecs.open('H:/Dataset/COCO/train_pbr/000002/labelNew/' + m[n], mode='r', encoding='utf-8')line = t.readline()  # 以行的形式进行读取文件list1 = []while line:a = line.split()list1.append(a)line = t.readline()t.close()lt = open('H:/Dataset/COCO/train_pbr/000002/labelNew/' + m[n], "w")for num in range(0, len(list1)):list1[num][0] = str(int(list1[num][0])+79)  # 第一列为0时,将0改为1lt.writelines(' '.join(list1[num]) + '\n')  # 每个元素以空格间隔,一行元素写完并换行lt.close()print(m[n] + " 修改完成")

在这里插入图片描述

在这里插入图片描述

这篇关于bop数据合并到COCO的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/435616

相关文章

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解

Oracle存储过程里操作BLOB的字节数据的办法

《Oracle存储过程里操作BLOB的字节数据的办法》该篇文章介绍了如何在Oracle存储过程中操作BLOB的字节数据,作者研究了如何获取BLOB的字节长度、如何使用DBMS_LOB包进行BLOB操作... 目录一、缘由二、办法2.1 基本操作2.2 DBMS_LOB包2.3 字节级操作与RAW数据类型2.