利用Caffe创建自己的lmdb数据集

2023-12-25 14:18
文章标签 数据 创建 caffe lmdb

本文主要是介绍利用Caffe创建自己的lmdb数据集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

用Caffe进行模型训练时,除了用现有的公开数据集(如MNIST, CIFAR等),有时候我们还需要创建自己的数据集进行训练。本篇博客讲的就是如何利用Caffe中的模块创建自己lmdb数据集。

数据集准备

我们需要自己准备好带类别标签的图片数据,并将数据统一命名,这里为了方便,我直接从CIFAR10训练集中拿出5000张图片用于制作验证集,图片为.png格式,并采用‘图片编号_类别标签.png’的命名方式(这个实现起来应该不难,这里就不赘述了),保存在一个文件夹下,部分例子如下:


train_valid

创建图片名列表清单

这里我们需要创建一个txt文本用来存放所有图片的信息,文本中每行存放一个样本,内容包括图片名和类别标签信息,中间用空格分开。这个实现方法很多,这里我给出一个用python实现的方法:

import os
def create_image_list(file_path,txtpath):"""Create a list of all images and save to a '.txt' file, each image is named as'num_label.png'. For example: 1001_2.pngInputs:file_path: path of image filetxtpath: '.txt' file used to save all images' names and labelsReturn: none"""# remove the old list fileif os.path.isfile(txtpath):os.remove(txtpath)# get the name list of all images image_name_list = os.listdir(file_path)# save the names and labels of all images to the '.txt' file named 'txtname'with open(txtpath,'a') as f:print 'saving to '+txtpath+'...'for image_name in image_name_list:image_label = image_name.split('_')[1].split('.')[0]image_data = image_name+' '+image_labelf.write(image_data+'\n')print 'done.'  

注意:代码中输入参数的路径都是绝对路径,当然如果感觉用绝对路径麻烦也该以稍微改动一下变成相对路径。
自己写代码调用上面这个函数,就可以生成下面的txt文本:


train_valid_txt

生成lmdb文件

这里我们用到的是Caffe下自带的convert_imageset可执行文件,如果你已经成功编译Caffe,这个文件应该在caffe-master/build/tools/下。要用这个可执行文件,我们需要提供三个路径,分别是原始图片数据存放路径、图片列表清单路径(就是之前生成的txt文本路径)和生成的lmdb文件存放路径,这里给出我之前转化数据集时用的脚本:

#!/bin/bash
# convert images to lmdbDATA=/home/meringue/DataBase/cifar-10-batches-py
IMGDIRNAME=train_valid
IMGLIST=img_name_list/train_valid.txt
LMDBNAME=train_valid_lmdbrm -rf $DATA/$LMDBNAME
echo 'converting images...'
/home/meringue/Softwares/caffe-master/build/tools/convert_imageset --shuffle=true \
$DATA/$IMGDIRNAME/ $DATA/$IMGLIST $DATA/$LMDBNAME

上面代码中的参数shuffle=true表示打乱数据,还有很多其他参数设置可以在caffe-master/tools/convert_imageset.cpp中查看。
转化速度很快,运行结束后,我们可以在程序中指定的lmdb路径下看到类似下面的文件:


train_train_valid_lmdb

为了保险起见,最好看一下data.mdb这个文件的大小,当你的数据比较大的时候,这个文件也因该很大。如果发现data.mdb很小,说明转化的时候出现了问题,回去检查一下。一般我们最后需要给lmdb数据添加可读权限,可以通过linux下sudo chmod 777 -R ./PATH 获取所有权限。否则有时候程序调用会出现类似没有权限的错误。

这篇关于利用Caffe创建自己的lmdb数据集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/535811

相关文章

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

idea中创建新类时自动添加注释的实现

《idea中创建新类时自动添加注释的实现》在每次使用idea创建一个新类时,过了一段时间发现看不懂这个类是用来干嘛的,为了解决这个问题,我们可以设置在创建一个新类时自动添加注释,帮助我们理解这个类的用... 目录前言:详细操作:步骤一:点击上方的 文件(File),点击&nbmyHIgsp;设置(Setti

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解