YOLOX源码之【数据缓存】

2024-06-05 02:52
文章标签 数据 源码 缓存 yolox

本文主要是介绍YOLOX源码之【数据缓存】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这里首先需要了解下装饰器 - 廖雪峰的官方网站的用法,后面会用到。

如果cache=True,在launch前就调用get_dataset,否则launch后再调用get_dataset。

函数get_dataset调用COCODataset类,并赋给self.dataset。COCODataset继承自CacheDataset,CacheDataset继承自Dataset,Dataset继承自torch.utils.data.data.Dataset。

COCODataset在__init__中super().__init__()初始化父类CacheDataset,CacheDataset在__init__中调用self.cache_images进行缓存图片操作,代码如下。

def cache_images(self,num_imgs=None,data_dir=None,cache_dir_name=None,path_filename=None,
):assert num_imgs is not None, "num_imgs must be specified as the size of the dataset"if self.cache_type == "disk":assert (data_dir and cache_dir_name and path_filename) is not None, \"data_dir, cache_name and path_filename must be specified if cache_type is disk"self.path_filename = path_filenamemem = psutil.virtual_memory()  # 获取系统虚拟内存信息mem_required = self.cal_cache_occupy(num_imgs)gb = 1 << 30  # 1 << 30 == 2^30 == (2^10)^3 == 1024^3# 1 << 30将二进制数1左移30位,其余位都为0。2^30的二进制表示是在最高位为1,其余位都为0的二进制数,即10后面跟着30个0。因此1 << 30 == 2^30if self.cache_type == "ram":if mem_required > mem.available:self.cache = Falseelse:logger.info(f"{mem_required / gb:.1f}GB RAM required, "f"{mem.available / gb:.1f}/{mem.total / gb:.1f}GB RAM available, "f"Since the first thing we do is cache, "f"there is no guarantee that the remaining memory space is sufficient")if self.cache and self.imgs is None:if self.cache_type == 'ram':self.imgs = [None] * num_imgslogger.info("You are using cached images in RAM to accelerate training!")else:   # 'disk'if not os.path.exists(self.cache_dir):os.mkdir(self.cache_dir)logger.warning(f"\n*******************************************************************\n"f"You are using cached images in DISK to accelerate training.\n"f"This requires large DISK space.\n"f"Make sure you have {mem_required / gb:.1f} "f"available DISK space for training your dataset.\n"f"*******************************************************************\\n")else:logger.info(f"Found disk cache at {self.cache_dir}")returnlogger.info("Caching images...\n""This might take some time for your dataset")num_threads = min(8, max(1, os.cpu_count() - 1))b = 0load_imgs = ThreadPool(num_threads).imap(partial(self.read_img, use_cache=False),  # 偏函数,固定参数use_cache=False# 这里是partial的一个神奇用法,修改装饰器的参数range(num_imgs))  # 这里load_imgs是一个迭代器pbar = tqdm(enumerate(load_imgs), total=num_imgs)for i, x in pbar:   # x = self.read_img(self, i, use_cache=False)if self.cache_type == 'ram':self.imgs[i] = xelse:   # 'disk'cache_filename = f'{self.path_filename[i].split(".")[0]}.npy'cache_path_filename = os.path.join(self.cache_dir, cache_filename)os.makedirs(os.path.dirname(cache_path_filename), exist_ok=True)np.save(cache_path_filename, x)b += x.nbytespbar.desc = \f'Caching images ({b / gb:.1f}/{mem_required / gb:.1f}GB {self.cache_type})'pbar.close()

缓存有ram和disk两种类型,ram是一次性将训练集中所有图片读取完放到一个列表中赋给self.imgs,disk是读取每张图片并以.npy格式保存到硬盘中。首先通过psutil.virtual_memory()获取系统虚拟内存信息,然后调用self.cal_cache_occupy()计算训练集中所有图片占用内存大小。然后用多线程的方式读取图片。

这里需要特别介绍一下读取图片的操作。首先functools.partial的作用是在原始函数的基础上固定某些参数创建一个新的可调用对象,这个新的可调用对象可以像原始函数一样被调用,但是某些参数已经被预先设置好了。下面是一个例子,在这个例子中,partial(add, 5)创建了一个新的函数add_five,它实际上是add函数的一个版本,只不过把第一个参数固定为5。这样当我们调用add_five(3)时,实际上是调用add(5, 3),所以结果是8。

from functools import partialdef add(x, y):return x + y# 使用partial固定第一个参数
add_five = partial(add, 5)print(add_five(3))  # 输出 8

partial(self.read_img, use_cache=False)调用的self.read_img在COCODataset中实现,并且将参数use_cache固定为False,但是我们看到函数read_img并没有入参use_cache,而装饰器@cache_read_img有入参use_cache,这里是partial的一个特别的用法,即可以改变装饰器的自身的参数。

@cache_read_img(use_cache=True)
# 实际调用的是cache_read_img(use_cache=True)(read_img)(self, index)
def read_img(self, index):return self.load_resized_img(index)

装饰器cache_read_img的实现如下,可以看到当use_cache=True时根据缓存类型从ram或disk中读取图片,当use_cache=False时调用被装饰函数read_img读取图片。这里本身就是在进行缓存图片的操作,图片还没缓存呢当然就不能从缓存中读取图片了。 

def cache_read_img(use_cache=True):def decorator(read_img_fn):"""Decorate the read_img function to cache the imageArgs:read_img_fn: read_img functionuse_cache (bool, optional): For the decorated read_img function,whether to read the image from cache.Defaults to True."""@wraps(read_img_fn)  # 保持被装饰函数read_img_fn的__name__属性不变def wrapper(self, index, use_cache=use_cache):cache = self.cache and use_cacheif cache:if self.cache_type == "ram":img = self.imgs[index]img = copy.deepcopy(img)elif self.cache_type == "disk":img = np.load(os.path.join(self.cache_dir, f"{self.path_filename[index].split('.')[0]}.npy"))else:raise ValueError(f"Unknown cache type: {self.cache_type}")else:img = read_img_fn(self, index)return imgreturn wrapperreturn decorator

至此就完成了缓存图片的操作。

这篇关于YOLOX源码之【数据缓存】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1031869

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

使用Spring Cache本地缓存示例代码

《使用SpringCache本地缓存示例代码》缓存是提高应用程序性能的重要手段,通过将频繁访问的数据存储在内存中,可以减少数据库访问次数,从而加速数据读取,:本文主要介绍使用SpringCac... 目录一、Spring Cache简介核心特点:二、基础配置1. 添加依赖2. 启用缓存3. 缓存配置方案方案

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I