[从零开始]使用ImageNet数据集实验

2024-09-05 01:38

本文主要是介绍[从零开始]使用ImageNet数据集实验,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

记录一下最近开始的ImageNet学习,论文中虽然提到了很多,也开源了训练代码,但是多数情况用自己的代码在相同的Condition就是难以复现,记录一点点目前的。

ImageNet,yyds

数据

数据下载源于官网 http://image-net.org/download,需要注册edu邮箱,一些参考:
下载imagenet2012数据集,以及label说明

下载下来的标签有不对应的情况,参考网上说的重新下一份caffe版本的,地址如下

caffe_ilsvrc12.tar.gz http://dl.caffe.berkeleyvision.org/

数据解压,python版本和shell版本

import osn = 0
unzip = os.listdir('./images')
print(len(unzip))
for i in os.listdir('./tars'):if('.tar' in i):if(i[:-4] in unzip):continuepath = os.path.join(os.getcwd(), 'images', i[:-4])tar = os.path.join(os.getcwd(), 'tars', i)os.system('mkdir {}'.format(path))os.system('tar -xvf {} -C {}'.format(tar, path))print(path)n += 1
print(n)
base=/path/to/data
for i in `ls *.tar`
dopath=$base${i%.tar}mkdir $pathtar -xvf $i -C $pathecho $path
done

训练

ImageNet的准确率在不同的训练策略下结果差异还是挺大的,参考了几篇论文的训练策略尝试复现结果。
部分训练代码已开源@git。

以下准确率是基于验证集(Validation Set)的结果

1. 训练环境

  • GPU: 32GB Tesla V100 * 4
  • Lib: pytorch 1.6

2. Table

一些固定setting,没有特殊说明则follow以下:

数据预处理,采用的albumentation

import albumentations as A
from albumentations.pytorch import ToTensorV2
# train
A.Compose([A.RandomResizedCrop(height=224, width=224),A.HorizontalFlip(p=0.5),A.Normalize(mean=(0.485, 0.456, 0.406), std=(0.229, 0.224, 0.225)),ToTensorV2()])
# val
A.Compose([A.Resize(height=256, width=256),A.CenterCrop(height=224, width=224),A.Normalize(mean=(0.485, 0.456, 0.406), std=(0.229, 0.224, 0.225)),ToTensorV2()])

采用的主干模型为Resnet50,由于采用了batch_size=256,没有使用sync_bn,pytorch1.6提供了混合精度训练(AMP),几行代码就能转换,极大节省了显存和训练时间。

# 一些固定setting
batch_size: 256
init_lr: 0.1
schedule: cos
warm_up: 10
total_epoch: 120
optimizer: SGD
weight_decay: 5e-4
momentum: 0.9
model: resnet50
sync_bn: False
amp: True
2.1 混合精度训练(AMP)

首先比较了混合精度训练,发现差异不大所以后面就用AMP来节约时间,用了sync_bn

假装有个Table结果被删掉了,找不到了,但是精度差不多

2.2 Sync_BN

比较了一下sync_bn的影响,顺便跑了LabelSmoothing

LossSchedulesync_bnbest_accbest_epochtotal_epochtime_per_epoch
CEcos, warm 10w76.04120120~720s
CEcos, warm 10wo76.22120120~540s
LS(0.1)cos, warm 10wo76.35120120/
LS(0.2)cos, warm 10wo76.45120120/
2.3 数据增强

因为有一篇论文提到了ColorJitter(CJ),故比较了一下使用增强的效果。

# 在train中加入
A.ColorJitter(brightness=0.4, contrast=0.4, saturation=0.4, hue=0, always_apply=False, p=0.5)

提升没有很明显。(那篇论文里的Baseline有77.5)

LossScheduleCJbest_accbest_epochtotal_epochtime_per_epoch
CEcos, warm 10w76.14120120~550s
2.4 更长时间的训练

大多数的训练策略都是以100~120epoch来训练ImageNet,但是从前面的结果来看全都是在最后一轮取得的最佳准确率,这与cos学习率衰减也有一定关系,学习率总是在最后几轮降低很快,准确率也主要在最后几轮提升。那么采用更多轮次的训练是否会有所提升。以下比较了300epoch和250epoch不同的训练策略。

LossSchedulebest_accbest_epochtotal_epoch
CEcos, warm 576.79299300
CEstep [75, 150, 225]76.01248250
2.5 Debug
  • batch_size和weight_decay调整
    前面说batch_size 256实际上是单卡256,而用了4张卡,因此实际上的batch_size计算应该为4 * 256,因此重新用了单卡batch_size 256来训练,时间从2天变成了5天,跑了250epoch,另外weight_decay 从5e-4变成了1e-4,结果上来看相比前面的有一点提升,但是具体是因为batch_size的变化还是weight_decay也不好说明,从跑的另一个实验来说提升是很明显的。单卡训练也避免了sync_bn的问题。结果基本与目前的论文结果能对应上。
LossSchedulebest_accbest_epochtotal_epoch
CEstep [75, 150, 225]76.32161250

Conclusion

以上尝试了几种ImageNet的训练策略,参考了一些论文的Setting,Baseline结果与大多数的论文的Baseline差不多(76.3)。但是从2.4可以看出不同的策略下结果差异很大,由于硬件条件有限,没有尝试的bags of tricks。训练次数小的时候(epoch in [90, 120]),似乎采用step衰减更有效。更长的时间cos衰减可能收敛效果更好。没有得到理想的结果,慢慢踩坑。

实验并不充分,还有一些问题需要解决,等有新的再补充。

Continue…

Code:https://github.com/Kurumi233/OnlineLabelSmoothing

这篇关于[从零开始]使用ImageNet数据集实验的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1137612

相关文章

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四

Go语言数据库编程GORM 的基本使用详解

《Go语言数据库编程GORM的基本使用详解》GORM是Go语言流行的ORM框架,封装database/sql,支持自动迁移、关联、事务等,提供CRUD、条件查询、钩子函数、日志等功能,简化数据库操作... 目录一、安装与初始化1. 安装 GORM 及数据库驱动2. 建立数据库连接二、定义模型结构体三、自动迁

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

mysql中的数据目录用法及说明

《mysql中的数据目录用法及说明》:本文主要介绍mysql中的数据目录用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、版本3、数据目录4、总结1、背景安装mysql之后,在安装目录下会有一个data目录,我们创建的数据库、创建的表、插入的

ModelMapper基本使用和常见场景示例详解

《ModelMapper基本使用和常见场景示例详解》ModelMapper是Java对象映射库,支持自动映射、自定义规则、集合转换及高级配置(如匹配策略、转换器),可集成SpringBoot,减少样板... 目录1. 添加依赖2. 基本用法示例:简单对象映射3. 自定义映射规则4. 集合映射5. 高级配置匹

Spring 框架之Springfox使用详解

《Spring框架之Springfox使用详解》Springfox是Spring框架的API文档工具,集成Swagger规范,自动生成文档并支持多语言/版本,模块化设计便于扩展,但存在版本兼容性、性... 目录核心功能工作原理模块化设计使用示例注意事项优缺点优点缺点总结适用场景建议总结Springfox 是

嵌入式数据库SQLite 3配置使用讲解

《嵌入式数据库SQLite3配置使用讲解》本文强调嵌入式项目中SQLite3数据库的重要性,因其零配置、轻量级、跨平台及事务处理特性,可保障数据溯源与责任明确,详细讲解安装配置、基础语法及SQLit... 目录0、惨痛教训1、SQLite3环境配置(1)、下载安装SQLite库(2)、解压下载的文件(3)、

使用Python绘制3D堆叠条形图全解析

《使用Python绘制3D堆叠条形图全解析》在数据可视化的工具箱里,3D图表总能带来眼前一亮的效果,本文就来和大家聊聊如何使用Python实现绘制3D堆叠条形图,感兴趣的小伙伴可以了解下... 目录为什么选择 3D 堆叠条形图代码实现:从数据到 3D 世界的搭建核心代码逐行解析细节优化应用场景:3D 堆叠图