TensorFlow入门教程(28)车牌识别之使用EAST模型进行车牌检测(四)

本文主要是介绍TensorFlow入门教程(28)车牌识别之使用EAST模型进行车牌检测(四),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

#
#作者:韦访
#博客:https://blog.csdn.net/rookie_wei
#微信:1007895847
#添加微信的备注一下是CSDN的
#欢迎大家一起学习
#

1、概述

上一讲,我们实现了EAST的代码,但是我们使用的是ICDAR2017数据集,实现的是对自然场景下的文本检测,现在,我们在原来的代码的基础上,来实现针对车牌的检测。

环境配置:

操作系统:Ubuntu 64位

显卡:GTX 1080ti

Python:Python3.7

TensorFlow:2.3.0

 

2、CCPD2019数据集

下载链接: https://github.com/detectRecog/CCPD

CCPD2019是中科大开源的数据集,用于车牌检测以及识别的任务。数据集包含了远/近距离、水平/倾斜角度、不同光照、不同天气等等的包含车牌的照片。但是它也有很多缺陷,比如,大部分都是皖A车牌,都是7位数的燃油车牌,没有新能源车牌等等,不过作为学习使用也够了。

下载解压数据集后,得到如下所示文件夹,

其中,ccpd_开头的文件夹下都是图片数据,splits文件夹下则是文本文件。splits文件夹如下图所示,

随便打开一个文本看看,如下图所示,

可以看到,ccpd_blur.txt文件里的每一行都指向ccpd_blur文件夹下的一个图片文件,其他的也是类似的。

CCPD车牌坐标等信息是直接写在文件名里,格式如下,

info1-info2-info3-info4-info5-info6-info7.jpg

其含义如下,

info1:地域area

info2:倾斜程度Tilt degree

info3:标注框坐标Bounding box coordinates

info4:四个车牌顶角坐标Four vertices locations

info5:车牌号码License plate number

info6:车牌区域亮度信息Brightness

info7:车牌区域模糊程度Blurriness

我们写个代码来分别根据标注框坐标和顶点坐标画出车牌框,代码如下,

import cv2
import numpy as np
import csv 
import osdef line(image, polys, color=(0,0,255)):    image = cv2.line(image, tuple(polys[0]), tuple(polys[1]), color, thickness=5)image = cv2.line(image, tuple(polys[1]), tuple(polys[2]), color, thickness=5)image = cv2.line(image, tuple(polys[2]), tuple(polys[3]), color, thickness=5)image = cv2.line(image, tuple(polys[3]), tuple(polys[0]), color, thickness=5)    return imagedef get_polys(image_file):polys = []print("image_file:", image_file)if not os.path.exists(image_file):return np.array(polys, dtype=np.float32)parts = image_file.split("-")polys_part = parts[3].split("_")print(polys_part)poly = []for p in polys_part:poly.append(p.split("&"))polys.append(np.asarray(poly).astype(np.int32))print("polys:", polys)return polysdef get_rectangle(image_file):polys = []print("image_file:", image_file)if not os.path.exists(image_file):return np.array(polys, dtype=np.float32)parts = image_file.split("-")rect_part = parts[2].split("_")poly = []for p in rect_part:poly.append(p.split("&"))poly = np.asarray(poly).astype(np.int32)    polys.append([poly[0], [poly[1][0], poly[0][1]], poly[1], [poly[0][0], poly[1][1]]])print(polys)return polysdef show(filename):rects = get_rectangle(filename) polys = get_polys(filename)   image = cv2.imread(filename)for rect in rects:print("rect:", rect)image = line(image, rect, (0,0,255))for poly in polys:print("poly:", poly)image = line(image, poly, (255,0,0))image = cv2.resize(image, (512, 512))cv2.imshow("demo1", image)cv2.imwrite("demo1.jpg", image)cv2.waitKey(0)show("ccpd_blur/0359-5_21-151&285_417&398-417&398_179&377_151&285_389&306-0_0_4_33_32_25_12-59-4.jpg")

运行结果,

3、修改代码

现在,我们基于上一讲的代码来修改。

3.1导入坐标

显然,数据集中使用车牌4个顶点坐标更适合我们的EAST算法,根据文件名获取车牌4个顶点坐标的代码如下,

'''
ccpd数据集的坐标等信息直接在文件名中,所以解析文件名即可拿到坐标信息
'''
def load_ccpd_polys(filename):text_polys = []ignored_label = []parts = filename.split("-")polys_part = parts[3].split("_")poly = []for p in polys_part:poly.append(p.split("&"))text_polys.append(np.asarray(poly).astype(np.int32))  ignored_label.append(False)# print(text_polys)  return np.array(text_polys, dtype=np.float32), np.array(ignored_label, dtype=np.bool)

3.2、导入数据集并创建tf.data.Dataset

数据增强的代码跟上一讲中类似,代码如下,

def parse_func(image_file, FLAGS):[image, score_map, geo_map] = tf.py_function(lambda image_file: preprocess(image_file, FLAGS=FLAGS), [image_file], [tf.float32, tf.float32, tf.float32])return image, score_map, geo_mapclass CCPD2019_Dataset:def __init__(self, FLAGS): self.FLAGS = FLAGSccpd_train_dir = os.path.join(FLAGS.ccpd_dataset_dir, FLAGS.ccpd_train_txtfile)ccpd_valid_dir = os.path.join(FLAGS.ccpd_dataset_dir, FLAGS.ccpd_valid_txtfile)        assert os.path.exists(ccpd_train_dir) and os.path.exists(ccpd_valid_dir)        self.train_filelist = get_iamges_from_txt(FLAGS.ccpd_dataset_dir, ccpd_train_dir)self.valid_filelist = get_iamges_from_txt(FLAGS.ccpd_dataset_dir, ccpd_valid_dir)assert len(self.train_filelist) > 0 and len(self.valid_filelist) > 0# 如果有ICDAR数据集,那么将该数据集也加入训练,让其全部当背景图,这样模型对不是车牌的字符能更好的判断if os.path.exists(FLAGS.icadr_dataset_dir) and os.path.exists(FLAGS.icadr_dataset_dir):icadr_train_dir = os.path.join(FLAGS.icadr_dataset_dir, "ch8_training_images")icadr_valid_dir = os.path.join(FLAGS.icadr_dataset_dir, "ch8_validation_images")assert os.path.exists(icadr_train_dir) and os.path.exists(icadr_valid_dir)        icadr_train_filelist = get_images_from_dir(icadr_train_dir)icadr_valid_filelist = get_images_from_dir(icadr_valid_dir)assert len(icadr_train_filelist) > 0 and len(icadr_valid_filelist) > 0self.train_filelist.extend(icadr_train_filelist)self.valid_filelist.extend(icadr_valid_filelist)self.train_filelist = np.asarray(self.train_filelist)self.valid_filelist = np.asarray(self.valid_filelist)np.random.shuffle(self.train_filelist)np.random.shuffle(self.valid_filelist)def create_dataset(self, subset):if subset == "train":filelist = self.train_filelistelse:filelist = self.valid_filelistds = tf.data.Dataset.from_tensor_slices(filelist)ds = ds.map(lambda image_file: parse_func(image_file, FLAGS=self.FLAGS))ds = ds.batch(self.FLAGS.batch_size)ds = ds.prefetch(AUTOTUNE)return ds

从代码中可以看到,如果存在ICDAR数据集,最好将它也加入训练,这样模型能对非车牌的字符能有更好的判断,只用CCPD数据集的话,对于一些不是车牌的字符,模型可能误认为它是车牌的。

3.2、preprocess

因为同时使用两个数据集,所以preprocess函数也要微改一下,代码如下,

def preprocess(image_file, FLAGS, is_test=False):# start = time.time()# print("------start------------")# print(image_file)if not is_test:# tf.data.Dataset需要这样转换一下才能用image_file = image_file.numpy().decode("utf-8")if FLAGS.task == "plate":_,filename = os.path.split(image_file)if filename.startswith("img_"):# icdar数据集的数据polys = []ignored_labels = []else: # ccpd数据集polys, ignored_labels = load_ccpd_polys(image_file)   else:polys, ignored_labels = load_icdar_polys(image_file)   # print("load_icdar_polys time: ", time.time() - start) image = cv2.imread(image_file)image, polys = random_scale_image(image, polys)# print("random_scale_image time: ", time.time() - start) image, polys, ignored_labels = random_crop_area(FLAGS, image, polys, ignored_labels)# print("random_crop_area time: ", time.time() - start) image, polys = pad_image(image, polys, FLAGS.input_size)# print("pad_image time: ", time.time() - start) image, polys = resize(image, polys, FLAGS.input_size)# print("resize time: ", time.time() - start) score_map, geo_map = map_generator(FLAGS, image, polys, ignored_labels)image = (image / 127.5) - 1# print("map_generator time: ", time.time() - start)return image, score_map[::4, ::4, np.newaxis], geo_map[::4, ::4]

其他部分的代码就基本一致了。然后就开始训练即可。

4、验证模型

运行eval.py文件,可以看到我们训练好的模型的运行效果,如下图所示,

可以看到,不管是水平的还是斜的车牌,都能准确识别出来了,而且,对于不是车牌的文字,它也不会误当车牌。

5、完整代码

https://mianbaoduo.com/o/bread/YZWcl5tw

这篇关于TensorFlow入门教程(28)车牌识别之使用EAST模型进行车牌检测(四)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/214257

相关文章

详解Vue如何使用xlsx库导出Excel文件

《详解Vue如何使用xlsx库导出Excel文件》第三方库xlsx提供了强大的功能来处理Excel文件,它可以简化导出Excel文件这个过程,本文将为大家详细介绍一下它的具体使用,需要的小伙伴可以了解... 目录1. 安装依赖2. 创建vue组件3. 解释代码在Vue.js项目中导出Excel文件,使用第三

Linux alias的三种使用场景方式

《Linuxalias的三种使用场景方式》文章介绍了Linux中`alias`命令的三种使用场景:临时别名、用户级别别名和系统级别别名,临时别名仅在当前终端有效,用户级别别名在当前用户下所有终端有效... 目录linux alias三种使用场景一次性适用于当前用户全局生效,所有用户都可调用删除总结Linux

java图像识别工具类(ImageRecognitionUtils)使用实例详解

《java图像识别工具类(ImageRecognitionUtils)使用实例详解》:本文主要介绍如何在Java中使用OpenCV进行图像识别,包括图像加载、预处理、分类、人脸检测和特征提取等步骤... 目录前言1. 图像识别的背景与作用2. 设计目标3. 项目依赖4. 设计与实现 ImageRecogni

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

关于@MapperScan和@ComponentScan的使用问题

《关于@MapperScan和@ComponentScan的使用问题》文章介绍了在使用`@MapperScan`和`@ComponentScan`时可能会遇到的包扫描冲突问题,并提供了解决方法,同时,... 目录@MapperScan和@ComponentScan的使用问题报错如下原因解决办法课外拓展总结@

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Linux使用fdisk进行磁盘的相关操作

《Linux使用fdisk进行磁盘的相关操作》fdisk命令是Linux中用于管理磁盘分区的强大文本实用程序,这篇文章主要为大家详细介绍了如何使用fdisk进行磁盘的相关操作,需要的可以了解下... 目录简介基本语法示例用法列出所有分区查看指定磁盘的区分管理指定的磁盘进入交互式模式创建一个新的分区删除一个存