SSD-tensorflow使用文档(测试训练基本流程)

2024-06-10 11:48

本文主要是介绍SSD-tensorflow使用文档(测试训练基本流程),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原博文:

SSD: Single Shot MultiBox Detector in TensorFlow

这里只从工程的角度介绍这份代码的使用方法,参照github上 balancap这个人 根据论文作者提供的caffe源码复现的tensorflow代码及其给出的教程,并加入了自己的一些补充和理解

补充:在ssd-tensorflow代码的fix_training分支中,作者增加了如下几点:
1. use a very simple data pre-processing pipeline at beginning to test out the training script;
2. use the argument trainable_scopes for only training the new parts of the network. Then, in a second time, fine tune the full network.
3. I implement an hard mining which is equivalent to the SSD Caffe, and looking at how to improve the data augmentation part.


1.基本介绍

  • 这里只实现了 SSD-300 VGG-basedSSD-512 VGG-based 两个版本,但这个project的框架的模块化应该可以保证SSD的其他变种(如ResNet or Inception 版本)实现起来也不难,等有时间我尝试好之后会分享给大家的。

  • 本project的组织结构受启发于TF-Slim models repository,TF-slim包含了当下流行的ResNet, Inception and VGG结构。主要包括3个部分:

    1. datasets:(Pasca VOC 2007_trainval,2007_test, 2012,COCO)这些数据集的接口和 将其转为tensorflow专用TF-Records格式的脚本文件。
    2. networks: SSD网络结构的定义,常用的encoding和decoding方法(refer to the paper on this precise topic)
    3. pre-processing: pre-processing and data augmentation routines, inspired by original VGG and Inception implementations.

2.SSD minimal example

利用jupyter Notebook可以轻松的运行SSD的一个测试用例,你要做的就是:
1. 下载模型ssd_300_vgg,存放在SSD-Tensorflow-master/checkpoints/这个目录下
2. 打开终端,在主目录 SSD-Tensorflow-master 下,运行cd notebooks/进入noteboo目录,运行 jupyter-notebook进入http://localhost:8892/tree服务器,打开 ssd_notebook.ipynb.ipynb文件
3. 配置一些路径:第4个cell中from notebooks import visualization改成import notebooks,不改的话目录结构不对,会报错
4. 使用自己的图片,改变path = '../demo/'成自己的图片所在路径
5. 从头到尾运行所有cell即可。

我在网上随便找了张图片测试了一下,效果确实还不错,只是这个代码没有把标签对应的种类显示在上面,懒得改了,以后用的时候再说,上图啦:
pedestrian
image

分析:估计这里2代表自行车把,15代表人把,但是第二张图的手势也是别未15(人类),估计分类里面没有手势这一项把。后续将进行更多的测试,这里先介绍到这里。


3.论文效果

小例子跑起来之后,当然不能就这么满足了,要给自己定个小目标,自然就是要通过自己的训练达到接近论文的效果。
- SSD作者本人用caffe实现的代码所达到的效果如下:

SystemVOC2007 test mAPFPS (Titan X)Number of BoxesInput resolution
Faster R-CNN (VGG16)73.27~6000~1000 x 600
YOLO (customized)63.44598448 x 448
SSD300* (VGG16)77.2468732300 x 300
SSD512* (VGG16)79.81924564512 x 512

image Note: SSD300* and SSD512* are the latest models. Current code should reproduce these results.

  • 这里tensorflow版本代码效果如下:

    ModelTraining dataTesting datamAPFPS
    SSD-300 VGG-basedVOC07+12 trainvalVOC07 test0.778-
    SSD-300 VGG-basedVOC07+12+COCO trainvalVOC07 test0.817-
    SSD-512 VGG-basedVOC07+12+COCO trainvalVOC07 test0.837-

对比发现,tensorflow版本的效果与caffe版本代码相当的效果。


4. 行动指南

4.1 制作数据集

以VOC2007为例,目录结构如下

+VOCtrainval_06-Nov-2007+VOCdevkit+VOC2007+Annotations+ImageSets+JPEGImages+SegmentationClass+SegmentationObject
+VOCtest_06-Nov-2007+VOCdevkit+VOC2007+Annotations+ImageSets+JPEGImages+SegmentationClass+SegmentationObject

为了避免每次在终端敲那么多字母,建议新建一个.sh文件,把以下脚本粘贴进去,只要在这里更改dataset的路径就可以了,最后在文件所在目录打开终端并输入bash tf_convert_data.sh:(本教程所建立的所有shell脚本都存放在/root/shell/这个文件夹下)

#filename = tf_convert_data.sh
#!/bin/bash
#This is a shell script to convert Pascal VOC datasets(2007 and 2012) into TF-Records only.#Directory where the original dataset is stored
DATASET_DIR=/root/VOCtrainval_06-Nov-2007/VOCdevkit/VOC2007/#Output directory where to store TFRecords files
OUTPUT_DIR=/root/VOCtrainval_06-Nov-2007/VOCdevkit/VOC2007_tfrecord/python ../tf_convert_data.py \--dataset_name=pascalvoc \--dataset_dir=${DATASET_DIR} \--output_name=voc_2007_train \--output_dir=${OUTPUT_DIR}

4.2 验证

下载好三个checkpoint:SSD-300 VGG-based, SSD-300 VGG-based, SSD-512 VGG-based,为了 reproduce evaluation metrics on the recall-precision curve && compute mAP metrics following the Pascal VOC 2007 and 2012 guidelines. 跟制作数据集的shell 脚本一样,可以在tf_convert_data.sh脚本所在目录”/shell”,新建脚本并将如下代码粘贴进去,运行bash eval_ssd_network.sh执行:

#!/bin/bash
# This is the eval script.DATASET_DIR=/home/doctorimage/kindlehe/common/dataset/VOC2007/VOCtest_06-Nov-2007/VOCdevkit/VOC2007_tfrecord/
#/home/doctorimage/kindlehe/common/dataset/VOCdevkit/
#../../../../common/dataset/VOC2007/VOCtest_06-Nov-2007/VOCdevkit/
EVAL_DIR=../log_files/log_eval/    # Directory where the results are saved to
CHECKPOINT_PATH=/home/doctorimage/kindlehe/common/models/tfmodlels/SSD/VGG_VOC0712_SSD_300x300_ft_iter_120000/VGG_VOC0712_SSD_300x300_ft_iter_120000.ckpt
#../../../../common/models/tfmodlels/SSD/VGG_VOC0712_SSD_300x300_ft_iter_120000/VGG_VOC0712_SSD_300x300_ft_iter_120000.ckpt#dataset_name这个参数在代码里面写死了
python3 ../eval_ssd_network.py \--eval_dir=${EVAL_DIR} \--dataset_dir=${DATASET_DIR} \--dataset_name=pascalvoc_2007 \--dataset_split_name=test \--model_name=ssd_300_vgg \--checkpoint_path=${CHECKPOINT_PATH} \--batch_size=1#python ../eval_ssd_network.py \
#    --eval_dir=${EVAL_DIR} \        # Directory where the results are saved to
#    --dataset_dir=${DATASET_DIR} \  # The directory where the dataset files are stored
#    --dataset_name=voc2007_test \ # The name of the dataset to load
#    --dataset_split_name=test \     # The name of the train/test split
#    --model_name=ssd_300_vgg \      # The name of the architecture to evaluate
#    --checkpoint_path=${CHECKPOINT_PATH} \  #The directory where the model was written to or an absolute path to a#checkpoint file
#    --batch_size=1                  # The number of samples in each batch

执行脚本之前,先替换一下作者eval_ssd_network.py这个代码的开头,由于是在python3环境下运行,我重新安装了python3版的tensorflow-gpu,采用的native pip安装,不建议哈,建议大家以后去使用docker,据说是可以用docker使用同一台机器的多个人分配GPU资源,防止撞车,谁玩过docker的欢迎来知道一下我,我叫kindle,唯一的一个kinlde!

至于注释的那一段,可能由于我重新安装的tensorflow,运行官方测试小demo居然会报这个错误 ++Internal: failed initializing StreamExecutor for CUDA device ordinal 1++,但是小demo中的sess = tf.Session()这条语句连续第二次运行的时候,一切又回复正常,wtf!!!

from tensorflow.python.framework import ops
from datasets import dataset_factory
from nets import nets_factory
from preprocessing import preprocessing_factoryimport os
os.environ["CUDA_VISIBLE_DEVICES"] = "1" #原因是在创建session时没有使用我想让它用的gpu,难道每次都只能在这里制定一块GPU才能运行?有别的办法吗?import math
import sys
import six
import timeimport numpy as np
import tensorflow as tf
import tf_extended as tfe
import tf_utilsslim = tf.contrib.slim

../log_files/log_eval/下生成三个文件:events.out.tfevents.1498225326.doctorimagePC, events.out.tfevents.1498225563.doctorimagePC,training_config.txt

INFO:tensorflow:Evaluation [4952/4952] #测试机是VOC07 test
2017-06-23 22:47:38.481517: I tensorflow/core/kernels/logging_ops.cc:79] AP_VOC07/mAP[0.74313211395020917]
2017-06-23 22:47:44.241878: I tensorflow/core/kernels/logging_ops.cc:79] AP_VOC12/mAP[0.7665967841531145]
INFO:tensorflow:Finished evaluation at 2017-06-23-14:47:44
Time spent : 3703.294 seconds.  
Time spent per BATCH: 0.748 seconds.
tensorboard显示

在目录~/kindlehe/project/SSD/SSD-Tensorflow-master/log_files下运行tensorboard --logdir=log_eval,在浏览器中输入++http://localhost:6006++即可


4.3 训练

终于可以开始训练了,话不多说,先准备在VOC07+12 trainval训练着,等周末来了再看,机器配置是:Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz 显卡:1080 Ti 12G显存

依然是.sh脚本的形式:

#!/bin/bash#The directory where the dataset files are stored.
DATASET_DIR=/home/doctorimage/kindlehe/common/dataset/VOC2007/VOCtrainval_06-Nov-2007/VOCdevkit/VOC2007_tfrecord/
#../../../../common/dataset/VOC2007/VOCtrainval_06-Nov-2007/VOCdevkit/VOC2007_tfrecord/#Directory where checkpoints and event logs are written to.
TRAIN_DIR=.././log_files/log_finetune/#The path to a checkpoint from which to fine-tune
CHECKPOINT_PATH=/home/doctorimage/kindlehe/common/models/tfmodlels/SSD/VGG_VOC0712_SSD_300x300_ft_iter_120000/VGG_VOC0712_SSD_300x300_ft_iter_120000.ckpt
#../../../../common/models/tfmodlels/SSD/VGG_VOC0712_SSD_300x300_ft_iter_120000/VGG_VOC0712_SSD_300x300_ft_iter_120000.ckptpython3 ../train_ssd_network.py \--train_dir=${TRAIN_DIR} \
    --dataset_dir=${DATASET_DIR} \
    --dataset_name=pascalvoc_2007 \
    --dataset_split_name=train \
    --model_name=ssd_300_vgg \
    --checkpoint_path=${CHECKPOINT_PATH} \
    --save_summaries_secs=60 \
    --save_interval_secs=600 \
    --weight_decay=0.0005 \
    --optimizer=adam \
    --learning_rate=0.001 \
    --batch_size=32

5. 遇到的一些坑

  1. –dataset_name=pascalvoc_2007 、–dataset_split_name=train、–model_name=ssd_300_vgg这三个参数不要自己随便取,在代码里,这三个参数是if…else…语句,有固定的判断值,所以要根据实际情况取选择
  2. TypeError: expected bytes, NoneType found
    SystemError: returned a result with an error set
    这是由于CHECKPOINT_PATH定义的时候不小心多了个#号键,将输入给注释掉了,如果不想使用预训练的模型,需要将--checkpoint_path=${CHECKPOINT_PATH} \注释掉即可
  3. SSD有在VOC07+12的训练集上一起训练的,用一个笨一点的办法:
    pascalvoc_to_tfrecords.py文件中,改变SAMPLES_PER_FILES,减少输出tfrecord文件的个数,再修改tf_convert_data.py的dataset参数,记得将前后两次的输出名改变一下,前后两次转换的tfrecords放在同一个文件夹下,然后手工重命名。(这里由于只是验证论文的训练方法是否有效,所以没必要写这些自动化代码实现合并,以后要用自己的数据集训练的时候就可以写一些自动化脚本)
  4. 有时候运行脚本会报错,可能是之前依次运行导致显存占满。
  5. 从pyCharm运行时,如果模型保存路径里之前的模型未删除,将会报错,必须保证该文件夹为空。

这篇关于SSD-tensorflow使用文档(测试训练基本流程)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1048081

相关文章

Security OAuth2 单点登录流程

单点登录(英语:Single sign-on,缩写为 SSO),又译为单一签入,一种对于许多相互关连,但是又是各自独立的软件系统,提供访问控制的属性。当拥有这项属性时,当用户登录时,就可以获取所有系统的访问权限,不用对每个单一系统都逐一登录。这项功能通常是以轻型目录访问协议(LDAP)来实现,在服务器上会将用户信息存储到LDAP数据库中。相同的,单一注销(single sign-off)就是指

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

字节面试 | 如何测试RocketMQ、RocketMQ?

字节面试:RocketMQ是怎么测试的呢? 答: 首先保证消息的消费正确、设计逆向用例,在验证消息内容为空等情况时的消费正确性; 推送大批量MQ,通过Admin控制台查看MQ消费的情况,是否出现消费假死、TPS是否正常等等问题。(上述都是临场发挥,但是RocketMQ真正的测试点,还真的需要探讨) 01 先了解RocketMQ 作为测试也是要简单了解RocketMQ。简单来说,就是一个分

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

基本知识点

1、c++的输入加上ios::sync_with_stdio(false);  等价于 c的输入,读取速度会加快(但是在字符串的题里面和容易出现问题) 2、lower_bound()和upper_bound() iterator lower_bound( const key_type &key ): 返回一个迭代器,指向键值>= key的第一个元素。 iterator upper_bou