如何用tensorflow中的object detection API来训练自己的数据集上的目标检测器

本文主要是介绍如何用tensorflow中的object detection API来训练自己的数据集上的目标检测器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这仍然是一个学习记录博~欢迎讨论

安装tensorflow object detection API

首先当然是要先安装tensorflow object detection API啦,网上有很多教程可以参考,比如:Ubuntu 16.04下安装TensorFlow Object Detection API(对象检测API)

P.S. 安装时需要注意的就是tensorflow-gpu的版本问题,你的tensorflow和tensorflow-gpu以及tensorflow API的版本都要一致,如果tensorflow-gpu版本是1.x的,那就不能安装2.x的API啦,有很多版本问题,使用的时候会报错的,比如:

ModuleNotFoundError: No module named 'tensorflow.contrib'; 'tensorflow' is not a package

我的tensorflow-gpu是1.13.1,我的tensorflow也是1.13.1,而我安装的API的版本是1.13.0~

基于浣熊的object detection

这个部分可以参考:用TensorFlow训练一个物体检测器(手把手教学版),写的真的蛮详细的。

不过文章里还是有点小问题的,所以在这里补充说明一下:

  • train.txt和test.txt文件的生成代码,博客里没有给全代码,下面给大家一段直接可以运行的代码来参考(路径自己改一下,运行一次就好了,不要重复运行,会一直追加写入的)
import os
import randomtrain_txt = open("xx/xx/dataset/train.txt", 'a+')
test_txt = open("xx/xx/dataset/test.txt", 'a+')pt = "xx/xx/xx/raccoon_dataset/images"
image_name = os.listdir(pt)count = 0
for temp in image_name:if temp.endswith(".jpg"):print(temp.replace('.jpg', ''))if count < 160:train_txt.write(temp.replace('.jpg', '')+'\n')else:test_txt.write(temp.replace('.jpg', '') + '\n')count += 1
  • 训练之前不要忘记添加环境变量
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim

这里的pwd就是当前路径,一般我们都是切换到models/research/object_detection目录下来运行的,所以这个pwd就是object_detection所在的路径。

  • 训练所用的文件train.py,eval.py不在object_detection目录下,而在object_detection/legacy目录下,可能是版本变了,所以把train.py什么的挪了位置。

使用model_train.py代替train.py

如果不想使用老版本的train.py的话,可以用object_detection下的model_train.py进行训练,它把老版本的train.py和eval.py集合到了一起,model_train.py的源码解释可以参考一下:Tensorflow Object Detection API 源码分析之 model_main.py。

在终端输入:

python model_main.py \--pipeline_config_path=config文件所在路径 \--model_dir=模型数据输出的保存路径 \--num_train_steps=60000 \--num_eval_steps=20 \--alsologtostderr

不出意外的话就可以正常训练了,训练之后可以在model_dir文件夹中看到保存下来的模型。

:接下来冻结模型的导出以及模型的测试都还是和用TensorFlow训练一个物体检测器(手把手教学版)中介绍的一样。

这篇关于如何用tensorflow中的object detection API来训练自己的数据集上的目标检测器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/539612

相关文章

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

python+opencv处理颜色之将目标颜色转换实例代码

《python+opencv处理颜色之将目标颜色转换实例代码》OpenCV是一个的跨平台计算机视觉库,可以运行在Linux、Windows和MacOS操作系统上,:本文主要介绍python+ope... 目录下面是代码+ 效果 + 解释转HSV: 关于颜色总是要转HSV的掩膜再标注总结 目标:将红色的部分滤

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解