TRB 2024论文分享:一种基于Swin Transformer的车标识别新方法

2024-01-18 12:52

本文主要是介绍TRB 2024论文分享:一种基于Swin Transformer的车标识别新方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

TRB(Transportation Research Board,美国交通研究委员会,简称TRB)会议是交通研究领域知名度最高学术会议之一,近年来的参会人数已经超过了2万名,是参与人数和国家最多的学术盛会。TRB会议几乎涵盖了交通领域的所有主题,主要包括公路、铁路、水运、航空、管道等诸多领域,接收来自交通系统、交通工程、交通政策、交通管理、交通实际操作、政府研究、学术研究和工业界最新的研究成果。TRB会议的论文反映了交通领域的研究前沿,具有广泛的参考价值。

本文主要介绍我们在交通领域被TRB 2024接收的关于车辆身份识别的研究工作,论文的题目为《A New Method for Vehicle Logo Recognition Based on Swin Transformer》,第一作者为李杨。车标识别是实现车辆身份识别的核心任务之一,高效的车标识别方法能够有效地识别车辆品牌,进而可以实现车辆跟踪或者车辆品牌市场占有率估计等目标。目前,基于卷积神经网络(CNN)的车标识别方法被广泛应用。然而,CNN的全局建模能力仍然低效,进而使车标识别方法难以突破性能瓶颈。为了解决上述问题,本文使用Swin Transformer实现实时的车标识别并对其进行微调以获得最佳性能。在三个公开车标数据集(HFUT-VL1、XMU、CTGU-VLD)上进行的广泛实验证明了本文方法的优越性。

1. 背景与挑战

(1) 车标特征提取仍不够充分

车标属于小目标,大多数据集采集到的车标图像往往具有较低的分辨率。通过研究发现,捕获车标的细节特征往往能够大幅提高准确率。基于CNN的车标识别方法往往是通过增加网络层数以提取车标更抽象的语义特征。然而,这种方法提高了计算成本,并且会导致梯度爆炸和梯度消失等问题出现。Transformer中的注意力机制能够进行高效的并行计算并轻松捕获抽象的语义特征。因此,本文聚焦使用Transformer中的注意力机制对车标特征进行处理。

(2) CNN全局建模效率较低

在现有的车标识别方法中,基于CNN的方法被大多数研究者重点关注。尽管CNN通过核卷积能够轻松实现空间局部性特征提取,并通过平移卷积来增大感受野以提取丰富的特征。但是,CNN的全局建模效率仍然较低,进而难以突破其性能瓶颈。因此,我们使用Swin Transformer模型,先通过窗口化的注意力机制对车标图像进行局部建模,再利用滑动窗口的方法对每个窗口进行全局建模,以较低的计算代价提高全局建模效率。

2. 方法

图1 基于Swin Transformer的车标识别方法的整体架构

基于Swin Transformer的车标识别方法的整体架构如图1所示。首先,输入的RGB车标图像被分割成互不重叠的patch,其中每个patch可以被视为一个“token”。其次,这些token的原始通道维度通过Linear Embedding投影到任意维度。接下来,多个 Swin Transformer模块以及Patch Merging模块将应用于这些token。最后,与CNN类似,特征向量通过Linear layer映射到与类别数相同维度的输出向量,用于车辆标志的分类。此外,如图2所示,Swin Transformer的高效全局建模在于其独特的窗口注意力计算策略,具体而言,通过W-MSA处理每个独立窗口的特征,再通过SW-MSA建立窗口之间的特征依赖关系,进而实现复杂度与图像尺寸大小成线性关系的高效建模。总之,本文提出的基于Swin Transformer的车标识别方法能够高效提取车标特征进而实现分类,并且该方法具有较低的复杂度和较强的泛化能力。

图2 SW-MSA的注意力计算

3. 实验结果

实验使用的车标公开数据集包括HFUT-VL1、XMU和CTGU-VLD数据集。车标识别方法性能的评价指标主要是准确率(%)和处理速度(image/s)。通过微调Swin Transformer结构参数来提高模型性能,并获得最佳结果。为验证本文方法在车标识别中的有效性,我们在上述三种数据集上进行了两组对比试验。实验结果表明,与对比的车标识别方法相比,本文方法识别准确率和处理速度等方面具有良好的性能

4. 总结

本文提出的基于Swin Transformer车标识别方法实现了实时车标识别,并在多个公开数据集上表现出色。更为重要的是,本文提出的方法以较低的复杂度全面提升了车标识别的性能。未来的研究可以探索将车标识别与车牌、车型和车辆颜色等其它特征的综合识别相结合,进一步全面提升车辆身份识别的性能。

这篇关于TRB 2024论文分享:一种基于Swin Transformer的车标识别新方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/619054

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

2024年流动式起重机司机证模拟考试题库及流动式起重机司机理论考试试题

题库来源:安全生产模拟考试一点通公众号小程序 2024年流动式起重机司机证模拟考试题库及流动式起重机司机理论考试试题是由安全生产模拟考试一点通提供,流动式起重机司机证模拟考试题库是根据流动式起重机司机最新版教材,流动式起重机司机大纲整理而成(含2024年流动式起重机司机证模拟考试题库及流动式起重机司机理论考试试题参考答案和部分工种参考解析),掌握本资料和学校方法,考试容易。流动式起重机司机考试技

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

【专题】2024飞行汽车技术全景报告合集PDF分享(附原数据表)

原文链接: https://tecdat.cn/?p=37628 6月16日,小鹏汇天旅航者X2在北京大兴国际机场临空经济区完成首飞,这也是小鹏汇天的产品在京津冀地区进行的首次飞行。小鹏汇天方面还表示,公司准备量产,并计划今年四季度开启预售小鹏汇天分体式飞行汽车,探索分体式飞行汽车城际通勤。阅读原文,获取专题报告合集全文,解锁文末271份飞行汽车相关行业研究报告。 据悉,业内人士对飞行汽车行业

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

高效录音转文字:2024年四大工具精选!

在快节奏的工作生活中,能够快速将录音转换成文字是一项非常实用的能力。特别是在需要记录会议纪要、讲座内容或者是采访素材的时候,一款优秀的在线录音转文字工具能派上大用场。以下推荐几个好用的录音转文字工具! 365在线转文字 直达链接:https://www.pdf365.cn/ 365在线转文字是一款提供在线录音转文字服务的工具,它以其高效、便捷的特点受到用户的青睐。用户无需下载安装任何软件,只

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学