[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)

2024-04-12 14:32

本文主要是介绍[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2.训练ssd-caffe模型:(以VOC数据集为例)

使用caffe进行目标检测,我们的需要标注了标签的图片作为训练样本,训练模型。推荐使用开源的标注工具labelimg,来对我们的图片进行标注。标注之后,会产生.xml文件,用于标识图片中物体的具体信息。

这里,我们以VOC格式的数据为示例:

VOC的数据格式,主要有三个重要的文件夹:AnnotationsImageSetsJPEGImages

  • Annotations: 存放.xml标注文件

  • ImageSets/Main: 存放train.txttest.txttrainval.txtval.txt

    • test.txt中保存的是测试所用的所有样本的名字,不过没有后缀(下同),一般测试的样本数量占总数据集的50%

    • train.txt中保存的是训练所用的样本名,样本数量通常占trainval的50%左右

    • val.txt中保存的是验证所用的样本名,数量占trainval的50%左右

    • trainval.txt中保存的是训练验证样本,是上面两个的总和,一般数量占总数据集的50%

生成上述文本的代码如下:

import os  
import random  trainval_percent = 0.66  
train_percent = 0.5  
xmlfilepath = 'Annotations'  
txtsavepath = 'ImageSets\Main'  
total_xml = os.listdir(xmlfilepath)  num=len(total_xml)  
list=range(num)  
tv=int(num*trainval_percent)  
tr=int(tv*train_percent)  
trainval= random.sample(list,tv)  
train=random.sample(trainval,tr)  ftrainval = open('ImageSets/Main/trainval.txt', 'w')  
ftest = open('ImageSets/Main/test.txt', 'w')  
ftrain = open('ImageSets/Main/train.txt', 'w')  
fval = open('ImageSets/Main/val.txt', 'w')  for i  in list:  name=total_xml[i][:-4]+'\n'  if i in trainval:  ftrainval.write(name)  if i in train:  ftrain.write(name)  else:  fval.write(name)  else:  ftest.write(name)  ftrainval.close()  
ftrain.close()  
fval.close()  
ftest .close()
print("done")

由于caffe只能处理lmdb格式的数据,如果你有自己的数据想要放在caffe上进行训练,方式如下:

  • 自定义数据和VOC数据格式相同:直接使用VOC的数据集转换的代码转换为lmdb
  • 自定义的数据和VOC的数据格式有出入:自己写代码或者修改源码src/caffe/util/io.cpp,转换为lmdb格式

训练步骤如下,以mydataset为例:

  • 分别创建examples/mydataset,data/mydataset,data/VOCdevkit/mydataset 三个文件夹:

    • data/VOCdevkit/mydataset:将刚刚生成的Annocations等几个文件夹复制进去

    • data/mydataset:将data/VOC0712下的create_list.sh,create_data.sh,labelmap_voc.prototxt三个文件拷贝到该文件夹

    • create_list.sh:根据之前生成的ImageSets/Main中的train.txt等文件,生成具体的文件路径信息等。运行该文件夹会在当前目录生成几个txt文件

      更改create_list.sh

      9QjO0K.md.png

    • create_data.sh:生成lmdb文件,运行该文件夹,会在examples/mydataset生成

      更改create_data.sh

      9QvBB6.md.png

  • 在ssd-caffe的根目录,运行如下命令:

    ./data/mydataset/create_list.sh
    ./data/mydataset/create_data.sh

    即可生成上述提到的文件。若运行两个.sh脚本文件错误,则删除刚刚生成的文件,debug后重新运行

  • 运行成功以后,在examples/mydataset即生成lmdb文件

  • 复制examples/ssd/路径下的ssd_pascal.py文件到example/mydataset下,修改相应参数:

    • 修改所有文件夹路径为自己的路径

    • 如果本机显存太小,修改batch_size为8

    • 修改标签个数num_classes为自己的种类n+1

    (1即为添加的backgroud标签,识别为背景。另外,我们的xml标签文件中不能出现编号为0的backgrouond标注,否则会报错。这个问题在ssd-caffe的issue上也有提到,至今没有解决)

    • 修改max_iter等参数,将迭代次数减小,也可以不修改使用默认
  • 在ssd-caffe根目录下运行

    python example/mydataset/ssd_pascal.py

    等待模型运行结束

  • 复制examples/ssd/路径下的score_ssd_pascal.py文件到example/mydataset下,修改相应文件路径,即可测试模型:

    python example/mydataset/score_ssd_pascal.py

3. 调用训练完成的模型,对单张图片进行测试:

我们训练完的模型应该保存在以下路径:

models/VGGNet/mydataset/SSD_300X300

.
├── deploy.prototxt
├── solver.prototxt #超参数
├── test.prototxt
├── train.prototxt
├── VGG_mydataset_SSD_300x300_iter_55.caffemodel
└── VGG_mydataset_SSD_300x300_iter_55.solverstate

example/ssd路径下的ssd_detect.py文件复制到example/mydataset下,将输入,输出的文件路径修改为自己的路径(其中包含网络定义,模型文件,标签文件,测试图片,输出图片等)

P.S. 文章不妥之处还望指正

这篇关于[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897395

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验