本文主要是介绍【OCR炼丹】解析HIT-OR3C数据集online部分Python版完整代码,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
最近开始炼手写体汉字识别方面的丹,网上找了下数据集,主要有:
- 中科院自动化研究所开源的CASIA数据集(下载链接地址)
- 哈工大开源的HIT-OR3C数据集(下载链接地址)
这俩数据集的存储形式与之前接触过的一些共有数据集的保存形式有很大的区别,对于C、C++不是很熟用Python较多的我来说踩了不少的坑(还都是CSDN、知乎、Google都搜不到的巨坑),造福下后来人吧。
首先,明确一点,由于博主此次研究的主要以联机手写体识别为主,所以主要重点关注的是CASIA数据集的OLHWDB数据以及HIT-OR3C的Online Characters。
第一坑:数据存储形式不了解
CASIA数据集其offline部分的字符集(.gnt格式数据)解析网上有相关python解析代码,但是online部分的字符集(.pot格式数据集)没找到有大神开源的解析代码。发邮件询问了数据集的作者,了解到了.pot格式的数据集要按照一定的规则依次读取相应的字节来解析(规则详见官网),并且作者还慷慨地提供了官方可视化工具的C++源码(让我对照着用Python去解析,奈何C++水平不够卡在最后一步,如果后续解析成功了会开源解析代码)
由于HIT-OR3C数据集的online部分字符集的存储形式与CASIA的OLHWDB存储格式类似,并且提供了File Format Specification以及C++,JAVA,Matlab三种语言的解析代码(奈何还是没有Python...还好博主本科Matlab用的多看得懂,才得以最终用Python解析成功)Source Code for using the dataset (C++, Java, MatLab)。
联机与脱机数据的存储格式一个最大的区别在于,由于联机数据是由专门的书写工具采集得到的,所以并不是直接和脱机数据一样直接存储整张图片,而是记录书写的每一笔画中的采样点来表示该字符。
第二坑:解析label时官方给了个烟雾弹
HIT-OR3C数据集官方的File Format Specification文档中关于解析Label部分有以下描述:
然后再来看看从官网下载下来的online characters文件中有:labels和labels.txt两个文件
想当然的认为应该读取labels文件,然后按照上述字节存储规则去读取。然鹅读取后的结果却包含一堆看不懂的火星文...
实践表明labels.txt才是对应vectors文件所要用到的,解析代码如下:
root = '写上你自己的文件存放路径'
label_path = osp.join(root, 'labels.txt')
char_dict = {}
# 此处一定要加上encoding='gbk',否则默认utf-8解析会出错
with open(label_path, 'r', encoding='gbk') as f:label_str = f.read()for i in range(len(label_str)):char_dict[i] = label_str[i]
# 可以看到一共有labels有6825个字符,与解析vectors文件得到的字符数是相同的
print("number of char: ", len(char_dict))
with open('char_dict_HIT-OR3C', 'wb') as f:pickle.dump(char_dict, f)
第三坑:File Format Specification文档与source code不一致
这个坑是在我按照File Format Specification文档写完代码激动不已地开始批量运行时发现的(讲真,看到报错时心凉了半截...)
可以看到File Format Specification文档在介绍vectors文件时用的是清一色的signed(博主虽然C、C++用的不多,但还是知道这个词代表的是"有符号"),所以刚开始很乖的用"int8,int16"去解析。
然鹅!报错了...debug后发现其中有个vectors文件在解析时,解析到某个字符某一笔画的采样点个数时,出现了-128...(实际为128,但由于用有符号的int8解析,所以为-128)
博主回过头去看官方提供的Matlab解析源码,才发现File Format Specification文档写错了,应该用无符号!
所以完整的解析代码如下:
import glob
import os.path as osp
import pickle
import cv2
from tqdm import tqdm
import numpy as np
from PIL import Imageroot = '你自己的路径'
dataset = glob.glob(osp.join(root, '*_vectors'))save_dir = '你自己的保存路径'def drawStroke(img, pts):length = len(pts)for i in range(1, length):# color和thickness可以根据需要自己更改cv2.line(img, (pts[i-1][0], pts[i-1][1]), (pts[i][0], pts[i][1]), color=(0, 0, 0), thickness=3)return imgfor file_id in tqdm(range(len(dataset))):path = dataset[file_id]with open(path, 'rb') as f:# 读取vectors文件包含的字符个数,该值占4个字节,按照uint32读取# 此处可知vectors文件读取的字符个数为6825与label的个数相对应sample_num = np.fromfile(f, dtype='uint32', count=1)[0]# 接下来是读取描述每个字符所需要的字节数,该值占2个字节,按照uint16读取samples_byte = []for sample_id in range(sample_num):sample_byte = np.fromfile(f, dtype='uint16', count=1)[0]samples_byte.append(sample_byte)# 接下来从每个字符的描述中重构出该字符for sample_id in range(sample_num):# init image canvaimg = np.ones((128, 128), dtype=np.uint8) * 255counter = 0# 读取该字符的笔画数,该值占1个字节,按照uint8读取stroke_num = np.fromfile(f, dtype='uint8', count=1)[0]counter += 1# 按顺序读取每笔的采样点个数,该值占1个字节,按照uint8读取# 就是这里不能按照File Format Specification文件里说明的signed char格式即int8形式读取# 否则存在有些笔画采样了128个点,若按照int8读取,会得到-128的结果,造成后续解析出错。strokes_points_num = []for stroke_id in range(stroke_num):stroke_points_num = np.fromfile(f, dtype='uint8', count=1)[0]strokes_points_num.append(stroke_points_num)counter += 1# 接下来是按照顺序读取每笔的采样点,一对坐标(x,y)占2个字节,按照uint8读取for num in strokes_points_num:points = np.fromfile(f, dtype='uint8', count=num*2).reshape((-1, 2))counter += num*2# 由于记录的是采样点,所以需要连接相邻点把这一笔画出来img = drawStroke(img, points)# 最后判断下描述该字符所用的字节数是否和最开始解析得到的值相同,也算是验证下解析过程是否正确assert counter == samples_byte[sample_id], "Error! counter: {}, sample byte: {}".format(counter, samples_byte[sample_id])# 最后将重构的字符保存下来,以label命名label = char_dict[sample_id]save_name = label + '_' + str(file_id) + '.jpg'image = Image.fromarray(img)image.save(osp.join(save_dir, save_name))
这篇关于【OCR炼丹】解析HIT-OR3C数据集online部分Python版完整代码的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!