Halcon深度学习药片检测

2023-12-05 04:52

本文主要是介绍Halcon深度学习药片检测,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.应用示例思路

(1) 标注数据并获取halcon字典形式的训练数据;(2) 数据预处理;

(3) 模型训练;(4) 模型评估和验证;(5) 模型推理。

数据的标注使用labelimg工具,具体的参考以下博文:

https://blog.csdn.net/ctu_sue/article/details/127280183

 2.应用示例相关参数说明

(1) 创建目标检测模型(create_dl_model_detection)之前应设置的参数

序号

参数

解释

1

'class_ids'

类的ID,默认 'class_ids' = [0,...,num_classes-1]。

2

'class_names'

类的名称,设置之后,类名的顺序保持不变。

3

'image_height',

网络将处理的输入图像的高度。

4

'image_width'

网络将处理的输入图像的宽度。

5

'image_num_channels'

网络将处理的输入图像的通道数(默认值=3)。

6

'min_level'

决定了特征金字塔较低层次的特征图。

7

'max_level'

决定了特征金字塔较深层次的特征图。

8

'anchor_aspect_ratios'

用于创建不同形状(长宽比不一样)的锚框。

9

'anchor_num_subscales'

用于创建不同大小的锚框。

10

'capacity'

该参数决定了在目标检测网络的较深部分(在骨干之后)中参数的数量(或过滤权重)。它的可能值是'high', 'medium'和'low'。它可以用来在检测性能和速度之间进行权衡。

对于简单的目标检测任务,“低”或“中”设置可能足以实现与“高”相同的检测性能。

(2) 目标检测模型训练时应设置的参数

序号

参数

解释

1

'batch_size'

批大小,往设备内存中输入图像(包括标签)的数目。

2

'learning_rate'

学习率,在训练期间决定梯度的变化。

3

'momentum'

动量,当更新网络的权重时,超参数'动量'指定了将先前的更新向量添加到当前更新向量的程度。

4

'weight_prior'

用于损失函数正则化的正则化参数。

5

'device'

在设备上执行深度学习算子的设备句柄。

(3) 目标检测模型评估和推理时应设置的参数

序号

参数

解释

1

'batch_size'

批大小

2

'min_confidence'

最小置信度,所有置信度值小于'min_confidence'的输出边界框都会被抑制。

3

'max_overlap'

同一类的两个预测边界框的IoU所允许的最大值。

4

'max_overlap_class_agnostic'

两个不同类的预测边界框的IoU所允许的最大值。当两个边界框的IoU高于'max_overlap_class_agnostic'时

,具有较低置信度值的那个将被抑制。

5

'optimize_for_inference'

将此参数设置为'true'可以释放不需要用于推理的模型内存(例如,梯度内存)。

 3.应用示例相关代码

(1)解析xml,提取每张图像的目标类别和位置

import os
import xml.etree.ElementTree as ETdef Get_TrainData(xmlfile):TrainDataList = []Classes = []xml_file_name = os.path.basename(xmlfile)file_name = xml_file_name.split('.')[0]img_file_name = file_name + '.png'TrainDataList.append(img_file_name)with open(xmlfile,"r", encoding="utf-8") as in_file:tree = ET.parse(in_file)root = tree.getroot()for obj in root.iter('object'):cls = obj.find('name').textif cls not in Classes:Classes.append(cls)cls_id = Classes.index(cls)xmlbox = obj.find('bndbox')b = (int(xmlbox.find('xmin').text),int(xmlbox.find('ymin').text), int(xmlbox.find('xmax').text),int(xmlbox.find('ymax').text))list_file = "" + ",".join([str(a) for a in b]) + ',' + str(cls_id)TrainDataList.append(list_file)return  TrainDataList,ClassesSaveDir1='./pill data/DataLabel'
xml_file_path='./pill data/DataLabel'
xml_file_list = os.listdir(xml_file_path)
TotalTrainDataList=[]
TotalClasses=[]for xmlfile in list(xml_file_list):xml_file_path = os.path.join(SaveDir1, xmlfile)TrainDataList, Classes = Get_TrainData(xml_file_path)TotalTrainDataList.append(TrainDataList)TotalClasses.append(Classes)SaveDir2='./pill data/'
SaveDir3='./pill data/'with open(os.path.join(SaveDir2,'TrainList.txt'), encoding="utf-8", mode="w") as f:for each_TrainDataList in TotalTrainDataList:f.write(" ".join(each_TrainDataList)+"\n")with open(os.path.join(SaveDir3,'classes.txt'), encoding="utf-8", mode="w") as f:for each_Classes in TotalClasses:f.write(",".join(each_Classes) + "\n")

(2) 生成字典形式的训练数据

*1、变量定义* 前边生成的类别文件
class_txt:='./InputFile/classes.txt'
* 前边生成的数据标注文件
train_txt:='./InputFile/TrainList.txt'
* 基于halcon转化脚本下的图像保存路径
ImageDir:='./DataImage'
* 基于halcon训练脚本下的图像保存路径
BaseImgDir:='./DataImage'
* 保存为halcon识别的训练文件
dict_File:='./InputFile/dl_dataset.hdict'*2、读取种类ClassID:=[]
ClassName:=[]open_file (class_txt, 'input', FileHandle)
repeatfread_line(FileHandle, oneline, IsEOF)if(IsEOF == 1)break        endifif(oneline == ' ' or oneline=='\n')continueendiftuple_regexp_replace (oneline, '\n', '', oneline)tuple_length (ClassID, Length)ClassID[Length]:=Length+1tuple_concat (ClassName, oneline, ClassName)
until (IsEOF)*3、解析trainList.txtTrainDataList:=[]
open_file (train_txt, 'input', FileHandle)
repeatfread_line(FileHandle, oneline, IsEOF)if(IsEOF == 1)break        endifif(oneline == ' ' or oneline=='\n')continueendiftuple_regexp_replace (oneline, '\n', '', oneline)tuple_concat (TrainDataList, oneline, TrainDataList)
until (IsEOF)*4、生成字典class_ids:=[1,2,3,4,5,6,7,8,9,10]
class_names:=['黑圆','土圆','赭圆','白圆','鱼肝油','棕白胶囊','蓝白胶囊','白椭圆','黑椭圆','棕色胶囊']AllSamples:=[]for Index1 := 0 to |TrainDataList|-1 by 1EachTrainList:=TrainDataList[Index1]tuple_split (EachTrainList, ' ', DataList)imageFile:=DataList[0]tuple_length (DataList, Length)DataList:=DataList[1:Length-1]create_dict (SampleImage)set_dict_tuple (SampleImage, 'image_id', Index1+1)set_dict_tuple (SampleImage, 'image_file_name', imageFile)  bbox_label_id:=[]bbox_row1:=[]bbox_col1:=[]bbox_row2:=[]bbox_col2:=[]class_names_temp1:=[ClassName[Index1]]tuple_split (class_names_temp1, ',', class_names_temp2)for bbox_index:=0 to |DataList|-1 by 1bbox_data:=DataList[bbox_index]tuple_split (bbox_data, ',', bbox_data_list)tuple_number (bbox_data_list[4], Number)class_name:=class_names_temp2[Number]tuple_find_first (class_names, class_name, class_name_index)tuple_concat (bbox_label_id, class_name_index+1, bbox_label_id)tuple_number (bbox_data_list[1], Number)tuple_concat (bbox_row1, Number, bbox_row1)tuple_number (bbox_data_list[0], Number)tuple_concat (bbox_col1, Number, bbox_col1)tuple_number (bbox_data_list[3], Number)tuple_concat (bbox_row2, Number, bbox_row2)tuple_number (bbox_data_list[2], Number)tuple_concat (bbox_col2, Number, bbox_col2)endforset_dict_tuple (SampleImage, 'bbox_label_id', bbox_label_id)set_dict_tuple (SampleImage, 'bbox_row1', bbox_row1)set_dict_tuple (SampleImage, 'bbox_col1', bbox_col1)set_dict_tuple (SampleImage, 'bbox_row2', bbox_row2)set_dict_tuple (SampleImage, 'bbox_col2', bbox_col2)tuple_concat (AllSamples, SampleImage, AllSamples)endfor*5、生成最终字典形式的训练数据create_dict (DLDataset)
set_dict_tuple (DLDataset, 'image_dir', './DataImage')
set_dict_tuple (DLDataset, 'class_ids', class_ids)
set_dict_tuple (DLDataset, 'class_names', class_names)
set_dict_tuple (DLDataset, 'samples', AllSamples) write_dict (DLDataset, dict_File, [], [])

(3) 应用示例代码

dev_close_window ()
dev_update_off ()
set_system ('seed_rand', 42)***0.)  设置输入输出路径(SET INPUT/OUTPUT PATHS)  ***get_system ('example_dir', HalconExampleDir)
PillBagJsonFile := HalconExampleDir + '/hdevelop/Deep-Learning/Detection/pill_bag.json'
InputImageDir := HalconExampleDir + '/images/'
OutputDir := 'detect_pills_data'*设置为true,如果运行此程序后应删除结果。
RemoveResults := false***1.)准备(PREPARE )****我们从一个COCO文件中读取数据集。
*或者读取由MVTec深度学习工具使用read_dict()创建的DLDataset字典。read_dl_dataset_from_coco (PillBagJsonFile, InputImageDir, dict{read_segmentation_masks: false}, DLDataset)*创建适合数据集参数的检测模型。
DLModelDetectionParam := dict{image_dimensions: [512, 320, 3], max_level: 4}
DLModelDetectionParam.class_ids := DLDataset.class_ids
DLModelDetectionParam.class_names := DLDataset.class_names
create_dl_model_detection ('pretrained_dl_classifier_compact.hdl', |DLModelDetectionParam.class_ids|, DLModelDetectionParam, DLModelHandle)*对DLDataset中的数据进行预处理。
split_dl_dataset (DLDataset, 60, 20, [])*如有需要,现有的预处理数据将被覆盖。
PreprocessSettings := dict{overwrite_files: 'auto'}
create_dl_preprocess_param_from_model (DLModelHandle, 'none', 'full_domain', [], [], [], DLPreprocessParam)
preprocess_dl_dataset (DLDataset, OutputDir, DLPreprocessParam, PreprocessSettings, DLDatasetFileName)*随机挑选10个预处理的样本进行可视化
WindowDict := dict{}
for Index := 0 to 9 by 1SampleIndex := round(rand(1) * (|DLDataset.samples| - 1))read_dl_samples (DLDataset, SampleIndex, DLSample)dev_display_dl_data (DLSample, [], DLDataset, 'bbox_ground_truth', [], WindowDict)dev_disp_text ('Press F5 to continue', 'window', 'bottom', 'right', 'black', [], [])stop ()
endfor
dev_close_window_dict (WindowDict)***2.) 训练(TRAIN) ****训练可以在GPU或CPU上执行。
*本例中尽可能使用GPU。*如果你明确希望在CPU上运行这个例子,选择CPU设备。
query_available_dl_devices (['runtime', 'runtime'], ['gpu', 'cpu'], DLDeviceHandles)
if (|DLDeviceHandles| == 0)throw ('No supported device found to continue this example.')
endif*由于query_available_dl_devices中使用了过滤,如果可用,第一个设备是GPU。
DLDevice := DLDeviceHandles[0]
get_dl_device_param (DLDevice, 'type', DLDeviceType)
if (DLDeviceType == 'cpu')*使用的线程数可能会对训练持续时间产生影响。NumThreadsTraining := 4set_system ('thread_num', NumThreadsTraining)
endif*详细信息参见set_dl_model_param()和get_dl_model_param()的文档。
set_dl_model_param (DLModelHandle, 'batch_size', 1)
set_dl_model_param (DLModelHandle, 'learning_rate', 0.001)
set_dl_model_param (DLModelHandle, 'device', DLDevice)*在这里,我们进行10次的短训练。为了更好的模型性能,增加epoch的数量,例如从10到60。create_dl_train_param (DLModelHandle, 10, 1, 'true', 42, [], [], TrainParam)*使用以下函数调用train_dl_model_batch()完成训练train_dl_model (DLDataset, DLModelHandle, TrainParam, 0, TrainResults, TrainInfos, EvaluationInfos)*读取由by train_dl_model保存的最佳模型文件。
read_dl_model ('model_best.hdl', DLModelHandle)
dev_disp_text ('Press F5 to continue', 'window', 'bottom', 'left', 'black', [], [])
stop ()dev_close_window ()
dev_close_window ()***3.) 评估(EVALUATE) ***
* 
GenParamEval := dict{detailed_evaluation: true, show_progress: true}set_dl_model_param (DLModelHandle, 'device', DLDevice)
evaluate_dl_model (DLDataset, DLModelHandle, 'split', 'test', GenParamEval, EvaluationResult, EvalParams)DisplayMode := dict{display_mode: ['pie_charts_precision', 'pie_charts_recall']}
dev_display_detection_detailed_evaluation (EvaluationResult, EvalParams, DisplayMode, WindowDict)
dev_disp_text ('Press F5 to continue', 'window', 'bottom', 'right', 'black', [], [])
stop ()
dev_close_window_dict (WindowDict)*优化模型进行推理,也就是说,减少它的内存消耗。
set_dl_model_param (DLModelHandle, 'optimize_for_inference', 'true')
set_dl_model_param (DLModelHandle, 'batch_size', 1)
*保存此优化状态下的模型。
write_dl_model (DLModelHandle, 'model_best.hdl')***4.) 推理(INFER) ****为了演示推理步骤,我们将训练好的模型应用于一些随机选择的示例图像。list_image_files (InputImageDir + 'pill_bag', 'default', 'recursive', ImageFiles)
tuple_shuffle (ImageFiles, ImageFilesShuffled)*创建用于可视化的窗口字典。
WindowDict := dict{}
DLDatasetInfo := dict{}
get_dl_model_param (DLModelHandle, 'class_ids', DLDatasetInfo.class_ids)
get_dl_model_param (DLModelHandle, 'class_names', DLDatasetInfo.class_names)
for IndexInference := 0 to 9 by 1read_image (Image, ImageFilesShuffled[IndexInference])gen_dl_samples_from_images (Image, DLSampleInference)preprocess_dl_samples (DLSampleInference, DLPreprocessParam)apply_dl_model (DLModelHandle, DLSampleInference, [], DLResult)dev_display_dl_data (DLSampleInference, DLResult, DLDataset, 'bbox_result', [], WindowDict)dev_disp_text ('Press F5 to continue', 'window', 'bottom', 'right', 'black', [], [])stop ()
endfor
dev_close_window_dict (WindowDict)***5.) 删除文件(REMOVE FILES) ***clean_up_output (OutputDir, RemoveResults)

如果不想自己标注数据的,可以下载我整理好的资源:https://download.csdn.net/download/qq_44744164/88595779

这篇关于Halcon深度学习药片检测的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/456229

相关文章

SpringCloud动态配置注解@RefreshScope与@Component的深度解析

《SpringCloud动态配置注解@RefreshScope与@Component的深度解析》在现代微服务架构中,动态配置管理是一个关键需求,本文将为大家介绍SpringCloud中相关的注解@Re... 目录引言1. @RefreshScope 的作用与原理1.1 什么是 @RefreshScope1.

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步

Redis中高并发读写性能的深度解析与优化

《Redis中高并发读写性能的深度解析与优化》Redis作为一款高性能的内存数据库,广泛应用于缓存、消息队列、实时统计等场景,本文将深入探讨Redis的读写并发能力,感兴趣的小伙伴可以了解下... 目录引言一、Redis 并发能力概述1.1 Redis 的读写性能1.2 影响 Redis 并发能力的因素二、

最新Spring Security实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)

《最新SpringSecurity实战教程之表单登录定制到处理逻辑的深度改造(最新推荐)》本章节介绍了如何通过SpringSecurity实现从配置自定义登录页面、表单登录处理逻辑的配置,并简单模拟... 目录前言改造准备开始登录页改造自定义用户名密码登陆成功失败跳转问题自定义登出前后端分离适配方案结语前言

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

Redis 内存淘汰策略深度解析(最新推荐)

《Redis内存淘汰策略深度解析(最新推荐)》本文详细探讨了Redis的内存淘汰策略、实现原理、适用场景及最佳实践,介绍了八种内存淘汰策略,包括noeviction、LRU、LFU、TTL、Rand... 目录一、 内存淘汰策略概述二、内存淘汰策略详解2.1 ​noeviction(不淘汰)​2.2 ​LR

Python与DeepSeek的深度融合实战

《Python与DeepSeek的深度融合实战》Python作为最受欢迎的编程语言之一,以其简洁易读的语法、丰富的库和广泛的应用场景,成为了无数开发者的首选,而DeepSeek,作为人工智能领域的新星... 目录一、python与DeepSeek的结合优势二、模型训练1. 数据准备2. 模型架构与参数设置3

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动