[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)

2024-04-12 14:32

本文主要是介绍[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2.训练ssd-caffe模型:(以VOC数据集为例)

使用caffe进行目标检测,我们的需要标注了标签的图片作为训练样本,训练模型。推荐使用开源的标注工具labelimg,来对我们的图片进行标注。标注之后,会产生.xml文件,用于标识图片中物体的具体信息。

这里,我们以VOC格式的数据为示例:

VOC的数据格式,主要有三个重要的文件夹:AnnotationsImageSetsJPEGImages

  • Annotations: 存放.xml标注文件

  • ImageSets/Main: 存放train.txttest.txttrainval.txtval.txt

    • test.txt中保存的是测试所用的所有样本的名字,不过没有后缀(下同),一般测试的样本数量占总数据集的50%

    • train.txt中保存的是训练所用的样本名,样本数量通常占trainval的50%左右

    • val.txt中保存的是验证所用的样本名,数量占trainval的50%左右

    • trainval.txt中保存的是训练验证样本,是上面两个的总和,一般数量占总数据集的50%

生成上述文本的代码如下:

import os  
import random  trainval_percent = 0.66  
train_percent = 0.5  
xmlfilepath = 'Annotations'  
txtsavepath = 'ImageSets\Main'  
total_xml = os.listdir(xmlfilepath)  num=len(total_xml)  
list=range(num)  
tv=int(num*trainval_percent)  
tr=int(tv*train_percent)  
trainval= random.sample(list,tv)  
train=random.sample(trainval,tr)  ftrainval = open('ImageSets/Main/trainval.txt', 'w')  
ftest = open('ImageSets/Main/test.txt', 'w')  
ftrain = open('ImageSets/Main/train.txt', 'w')  
fval = open('ImageSets/Main/val.txt', 'w')  for i  in list:  name=total_xml[i][:-4]+'\n'  if i in trainval:  ftrainval.write(name)  if i in train:  ftrain.write(name)  else:  fval.write(name)  else:  ftest.write(name)  ftrainval.close()  
ftrain.close()  
fval.close()  
ftest .close()
print("done")

由于caffe只能处理lmdb格式的数据,如果你有自己的数据想要放在caffe上进行训练,方式如下:

  • 自定义数据和VOC数据格式相同:直接使用VOC的数据集转换的代码转换为lmdb
  • 自定义的数据和VOC的数据格式有出入:自己写代码或者修改源码src/caffe/util/io.cpp,转换为lmdb格式

训练步骤如下,以mydataset为例:

  • 分别创建examples/mydataset,data/mydataset,data/VOCdevkit/mydataset 三个文件夹:

    • data/VOCdevkit/mydataset:将刚刚生成的Annocations等几个文件夹复制进去

    • data/mydataset:将data/VOC0712下的create_list.sh,create_data.sh,labelmap_voc.prototxt三个文件拷贝到该文件夹

    • create_list.sh:根据之前生成的ImageSets/Main中的train.txt等文件,生成具体的文件路径信息等。运行该文件夹会在当前目录生成几个txt文件

      更改create_list.sh

      9QjO0K.md.png

    • create_data.sh:生成lmdb文件,运行该文件夹,会在examples/mydataset生成

      更改create_data.sh

      9QvBB6.md.png

  • 在ssd-caffe的根目录,运行如下命令:

    ./data/mydataset/create_list.sh
    ./data/mydataset/create_data.sh

    即可生成上述提到的文件。若运行两个.sh脚本文件错误,则删除刚刚生成的文件,debug后重新运行

  • 运行成功以后,在examples/mydataset即生成lmdb文件

  • 复制examples/ssd/路径下的ssd_pascal.py文件到example/mydataset下,修改相应参数:

    • 修改所有文件夹路径为自己的路径

    • 如果本机显存太小,修改batch_size为8

    • 修改标签个数num_classes为自己的种类n+1

    (1即为添加的backgroud标签,识别为背景。另外,我们的xml标签文件中不能出现编号为0的backgrouond标注,否则会报错。这个问题在ssd-caffe的issue上也有提到,至今没有解决)

    • 修改max_iter等参数,将迭代次数减小,也可以不修改使用默认
  • 在ssd-caffe根目录下运行

    python example/mydataset/ssd_pascal.py

    等待模型运行结束

  • 复制examples/ssd/路径下的score_ssd_pascal.py文件到example/mydataset下,修改相应文件路径,即可测试模型:

    python example/mydataset/score_ssd_pascal.py

3. 调用训练完成的模型,对单张图片进行测试:

我们训练完的模型应该保存在以下路径:

models/VGGNet/mydataset/SSD_300X300

.
├── deploy.prototxt
├── solver.prototxt #超参数
├── test.prototxt
├── train.prototxt
├── VGG_mydataset_SSD_300x300_iter_55.caffemodel
└── VGG_mydataset_SSD_300x300_iter_55.solverstate

example/ssd路径下的ssd_detect.py文件复制到example/mydataset下,将输入,输出的文件路径修改为自己的路径(其中包含网络定义,模型文件,标签文件,测试图片,输出图片等)

P.S. 文章不妥之处还望指正

这篇关于[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897395

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I

Java整合Protocol Buffers实现高效数据序列化实践

《Java整合ProtocolBuffers实现高效数据序列化实践》ProtocolBuffers是Google开发的一种语言中立、平台中立、可扩展的结构化数据序列化机制,类似于XML但更小、更快... 目录一、Protocol Buffers简介1.1 什么是Protocol Buffers1.2 Pro