YOLO-BEV

2024-01-04 16:59
文章标签 yolo bev

本文主要是介绍YOLO-BEV,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

车辆感知系统旨在全面快速地解读周围环境,以提高安全性和导航性能。作者(感谢大佬啊)介绍了YOLO-BEV,这是一个高效的框架,YOLO没向3D低头,利用独特的周围摄像机设置生成车辆环境的鸟瞰图。通过在战略位置安装8台摄像机,每个摄像机之间间隔45度,作者的系统捕捉并将图像集成到一个连贯的3x3网格格式中,将中心留空,提供了一个丰富的空间表示,有助于高效处理。

在作者的方法中,作者采用了YOLO的检测机制,利用其快速响应和紧凑的模型结构等固有优势。与传统的YOLO检测头不同,作者采用了一个定制设计的检测头,将全景捕获的数据转化为统一的车辆鸟瞰图。

初步结果验证了YOLO-BEV在实时车辆感知任务中的可行性。由于其精简的架构和参数最小化,YOLO-BEV具有迅速部署的潜力,可能会在自动驾驶系统的未来发展中起到重要作用。

自动驾驶系统代表了交通、出行和道路安全领域的一次革命性转变。这些系统的主要挑战在于有效地感知和理解环境。目前,该行业的主流研究集中在两种主要的感知技术上:传感器融合解决方案,将激光雷达(LiDAR)和雷达与摄像头整合在一起,以及仅依赖摄像头的视觉系统。虽然传感器和视觉技术融合可以提供强大的感知能力,但这种方法通常伴随着增加的成本和潜在的环境挑战,因此在大规模部署方面不太可行。

相比之下,仅依赖摄像头设置进行环境感知的视觉系统,不仅是一种经济有效的替代方案,而且更符合可持续发展目标。因此,视觉解决方案越来越被视为整个自动驾驶行业的可能最终方向。在这个以视觉为基础的范式中,一个新兴的研究焦点是通过生成鸟瞰视图(BEV)来增强车辆感知。传统的生成这种视图的方法通常受限于受限的摄像机角度,从而限制了车辆的空间感知能力,这对于实时决策至关重要。

正如图1所示,取自Motional网站的一个现实世界示例,纯粹基于视觉生成鸟瞰视图(BEV)已经成为现代研究的焦点。这些方法旨在通过为环境感知提供丰富的背景,从而在复杂情况下促进实时决策,推动自动驾驶的未来。

如图2所示,生成鸟瞰视图地图后,自动驾驶的典型用例涉及利用这些BEV进行路径规划。在这里,道路的基本布局,包括车道标线和其他静态元素,通常是预先测量的高清地图。这些静态信息作为动态元素(如汽车、行人和其他物体)叠加的基础,从而为实时导航决策提供必要的背景。

作者的工作旨在摆脱这一限制,通过开创一种方法,建立车辆的各个摄像头位置与BEV地图之间的直接空间对应关系。具体来说,BEV地图中每个图像的位置由捕获它的视角决定;例如,从车辆前方拍摄的图像映射到BEV的顶部,而从后方拍摄的图像则映射到底部。通过这种方式,作者确保了对车辆周围环境的一种连贯和直观的空间表示。

借助这一创新框架,作者引入了YOLO-BEV,一种专门设计的感知系统,旨在将这些具有空间相关性的多摄像头数据转化为全面的、统一的2D BEV。采用YOLO成熟和高效的目标检测算法,YOLO-BEV被设计为将这些丰富的视觉数据解释为单一、连贯和高度信息丰富的BEV地图,从而实现更强大的实时车辆感知。

初步结果强调了该框架在实际应用中的有效性和可行性,将YOLO-BEV定位为可能在重塑未来自动驾驶系统领域的实践和方法方面具有突破性的工具。

YOLO-BEV

本节讨论YOLO-BEV,这是一种用于自动驾驶应用程序生成鸟瞰图地图的新方法。该方法使用相机设置矩阵进行数据收集,并利用YOLO的Backbone来进行特征提取。还引入了专门用于鸟瞰图输出的自定义检测层,以及用于优化的相应损失函数。

A. 概述

这项研究的核心创新在于摄像机布局的巧妙设计,使其与生成的鸟瞰图完美对应。这种布局涉及在车辆上安装8台摄像机,以45度间隔战略性地放置,以捕捉车辆周围的360度视野。然后采用了独特的3x3矩阵布局进行图像预处理,为基于YOLO的特征图生成相应的鸟瞰图铺平了道路。

图3提供了这一新颖概念的图示表示,详细说明了摄像机的视野如何与生成的鸟瞰图中的特定区域对应。这一设计的重要性远远超出了几何考虑,特别是在自动驾驶领域,它提供了在车辆俯视图中与之相符的复合图像,从而有望实现更准确的目标检测和空间识别。

其中,作者将矩阵的最后一行中的三幅图像旋转了180度,因为作者发现这种设置可以更好地匹配鸟瞰视图的空间位置。

B. 数据收集与预处理

在这个学术研究中,作者主要依赖来自nuScenes的nuPlan数据集,这个数据集是重要的自动驾驶信息宝库,包括在波士顿、匹兹堡、拉斯维加斯和新加坡等4个地理和文化多元的城市中精心捕捉的高质量驾驶数据,总计1200小时。该数据集不仅呈现了多种驾驶条件,还提供了丰富的传感器数据,包括但不限于多个尖端激光雷达单元、多种摄像头视角、惯性测量单元(IMU)以及高精度的GPS坐标。

为了精细调整研究焦点并优化计算效率,本研究有策略地集中于使用来自nuPlan数据集的8台精心选择的摄像机采集的图像。这些图像特别适合构建建议的3x3图像帧矩阵,并与鸟瞰图本地化场景建立空间对应关系。

为了生成可靠和准确的地面真实数据,作者采用了一种创新但简单的提取技术。通过利用nuPlan数据集中唯一标识的标记,作者成功地建立了输入图像和精心计算的代表其他车辆位置的鸟瞰图坐标之间的一对一对应关系。这个有针对性的方法使作者能够筛选数据集中的大量数据,并有选择地提取与作者的研究目标直接相关的数据。

因此,非必要信息,如行人、交通信号和其他环境变量,被有意地从作者的分析中省略。这种精简的方法有助于加快计算过程,显著缩短获得有意义的结果所需的时间。

C. 模型架构

作者的模型基本上建立在YOLO强大的架构之上,特别是利用了它高效的特征提取能力。通过同时使用YOLO架构的Backbone和Head部分,模型将初始的3×3图像矩阵转化为一组丰富的多尺度特征图。这些特征图然后经过进一步的处理,通过作者的专有层CustomDetect,该层经过精心设计,以实现精确的鸟瞰图目标定位。图4提供了初始3x3输入矩阵、经过微调的Backbone和Head以及专门的CustomDetect层的架构概述。

CustomDetect模块的架构由nl层组成,其中nl与通道维度数组的长度相匹配。每一层都包含一个卷积层序列,以PyTorch ModuleList的形式组织,以便实现流畅的操作。这种连续卷积操作的数学表示可以描述如下:

总之,作者的模型不仅利用了YOLO中经过验证的特征提取机制,还扩展了其边界框回归技术,用于更专门的目标定位任务。CustomDetect层经过精心校准,输出每个检测到的目标的x和y坐标、方向角度和置信度分数等关键参数。这些参数通过一个动态构建的网格进一步精炼,以与输入特征图的空间维度相对应。这使作者的模型特别擅长需要在鸟瞰视图中进行精确目标定位的任务,使其非常适用于自动驾驶领域的复杂应用。

D. 网格补偿机制

CustomDetect模块巧妙地引入了一个网格补偿机制,这是一个旨在微调预测的目标坐标的关键特性。这个机制在将最初由神经网络预测的相对坐标转化为全局信息丰富且与上下文相关的坐标集合中发挥关键作用,即相对于特征图的整个空间范围。

通过利用PyTorch强大的张量操作,这种精细调整机制确保了预测的坐标被系统地转化为全局信息丰富的形式。这不仅显著增强了模型在精确目标定位任务方面的能力,还有助于深度学习流水线的整体效率和可伸缩性,特别是在处理大规模数据时。

E. 损失函数

设计一个有效的损失函数是在训练健壮的深度学习模型中的关键因素,特别是在目标检测领域。作者的损失函数采用了多方面的方法来优化模型的性能,将空间和置信度方面合并到一个统一的目标函数中。

对于空间方面,作者引入了边界框损失,使用均方误差(MSE)作为底层损失度量。考虑到预测的边界框坐标和方向,这些坐标被转化为轴对齐边界框(AABB),以便计算与GT框的交并比(IoU),GT框也被转化为AABB。图6阐释了作者在边界框损失计算中使用的轴对齐边界框(AABB)。

图中显示了两个目标边界框及其对应的AABB。还显示了这些AABB的交集。值得注意的是,虽然AABB简化了交并比(IoU)的计算,但与更精确的定向边界框方法相比,它们通常会导致稍大的IoU值。这是因为这些边界框与轴对齐,可能包含不属于重叠部分的额外区域。

重要的是,经验测试表明,这种轻微的过估计通常是可以接受的,因为它仍然有效地有助于在训练过程中减小损失。从数学上讲,边界框损失定义如下:

与YOLO类似,YOLO已经为实时目标检测设定了行业标准,作者采用了类似的多组分损失函数,处理了空间坐标和置信度分数。这个复杂设计的损失函数体现了目标定位和置信度估计的关键属性,旨在满足作者模型的独特要求。

通过整合这些受YOLO启发的组件,作者能够建立一个强大而灵活的损失函数。这种配置使作者的方法特别适合解决自动驾驶应用中常见的复杂挑战,如实时目标跟踪和高保真度定位。

实验和结果

A. 实验设置

实验评估是在一台配备NVIDIA GeForce RTX 3090显卡,内存为24GB的高性能计算环境中进行的。选择这个设置是为了有效地加速训练和推理过程。

作者的训练策略包括两个阶段的数据方案。最初,模型接触了大约1,000个实例的数据集。目标是使模型接近过拟合状态,以确保捕捉复杂特征。在这个初期阶段,花费了数小时的时间来达到近似过拟合的优化模型状态。

随后,作者将转入训练方案的第二阶段。这个阶段涉及训练模型使用最新的完整的Nuplan数据集。考虑到这些数据的规模和复杂性更大,作者预计这个阶段需要更多的时间。还可能需要进一步调整学习率、批量大小和正则化系数等超参数。

作者采用了深度学习范式中常见的优化技巧。参数如学习率、批量大小和正则化系数被调整以符合体系结构和数据的具体要求。

随后,训练好的模型被应用于生成测试数据集的预测。这个评估阶段允许作者检查模型在与自动驾驶相关的场景中的适用性和效率。

B. 鸟瞰视图定位的初步结果

作者的实验评估在鸟瞰视图目标定位的背景下产生了令人鼓舞的初步结果。图7展示了生成的鸟瞰视图与GT鸟瞰视图的对比,证实了模型在复杂环境中进行准确的空间定位的能力。

生成的图表展示了在目标边界和方向上与GT的显著一致性。这个结果证明了模型在捕捉复杂的空间关系和细节方面的有效性,这是目标定位任务中的一个关键因素。

此外,模型输出的目标坐标、角度和置信度分数也与GT密切一致。这种一致性展示了作者提出的CustomDetect层与YOLO Backbone相结合的稳健性和可靠性,成功地将其目标定位能力扩展到了鸟瞰视角。

尽管这些初步结果令人鼓舞,但为了得出更明确的结论,需要进行包括更广泛的情景和度量标准的全面评估。然而,在这些初步试验中展示的明显能力,为该模型在自动驾驶技术领域的适用性提供了有力的指示。

C. 参数调优和模型选择

在自动驾驶领域的目标检测任务中,卷积神经网络(CNNs)是基础架构,因为它们在空间特征提取方面具有出色的能力。因此,精心选择模型和超参数调优变得不可或缺。

不同深度和复杂性的CNN架构经过实验,以找到计算开销和目标检测性能之间的最佳平衡。

通过网格搜索进行了超参数调优,这是一种详尽的搜索算法,系统地遍历了手动指定的超参数空间的子集。学习率、批量大小和丢失率是作者搜索中的关键超参数。例如,学习率在范围[0.1, 0.01, 0.001]内进行了探索。

为了确保在训练过程中实现细致有效的学习,作者利用了Adam优化算法,以其在各种机器学习任务中的效率和稳健性而闻名。Adam优化器从本质上受益于基于矩的优化,这显著有助于在高维参数空间中朝着最优解的收敛。Adam的更新规则如下:

Adam算法具有自适应地更改不同参数的学习率的能力,使其特别适用于自动驾驶应用中的挑战。通过将这一先进的优化算法纳入作者的训练策略,作者旨在实现更稳定和更快速的收敛,以及更准确的目标检测性能。

讨论

矩形重叠与NMS考虑

NMS一直是目标检测任务中的一个重要工具,用于将多个边界框精炼和减少到最可能的一个。在许多情况下,NMS是有效的,但在生成自动驾驶的鸟瞰视图地图方面,NMS引入了一些细微之处。

与标准的应用不同,这里使用的NMS技术必须在防止矩形重叠和可能导致车辆位置不精确的矩形移动之间取得微妙的平衡。

其中一个挑战是,传统上NMS优先考虑得分最高的矩形,这可能在特定设置中导致相邻或紧密排列的车辆的边界框的错位或移动。如图8所示,使用NMS可能导致鸟瞰视图上矩形的次优放置。

在这个特定应用中实现NMS的潜在差异暗示了进一步研究的空间。探索传统NMS算法的改进或替代方案可能提供了更好地满足自动驾驶所需的精确定位的可能性。  whaosoft aiot http://143ai.com

B. 帧间的时间不一致

所提出的模型主要基于逐帧操作,缺乏建立后续帧之间的时间关联的能力。这种缺乏时间关联导致生成的鸟瞰视图表示中出现不平滑,或者可以描述为“跳跃”的转换。

为了改善这个问题,未来的工作可以探讨利用基于Transformer的体系结构,因为Transformer以捕捉序列之间的关系而闻名。

虽然Transformer擅长处理时间序列,但值得注意的是,引入这种体系结构可能会增加模型的参数数量,从而可能降低每秒帧数(FPS)。较低的FPS可能会引入系统延迟,这是实时应用(如自动驾驶)中的一个关键问题。因此,必须在提高模型的时间理解能力和保持实时处理能力之间取得谨慎的平衡。

C. 缺乏类别特定信息

目前的模型在其现有形式中基本上是为了目标定位而设计的,没有考虑类别特定信息。它既不考虑不同目标的语义,也不识别诸如交通灯、行人或其他车辆实体等上下文线索。在理想情况下,更全面的鸟瞰视图应该包括这些不同元素,以提供更丰富的上下文,从而更好地为自动导航系统提供信息。

D. 未来工作

鉴于作者当前实施中存在的挑战和限制,进一步改进的道路既是开放的,也是值得探索的。这项研究的即期轨迹倾向于微调各种算法元素。例如,目前采用的非极大值抑制(NMS)算法可以更适应不同的驾驶条件,从而提高目标检测的稳健性。

除此之外,Transformer架构为时间序列建模提供了有前途的途径。引入这种体系结构可以通过考虑道路环境的动态性来增加模型的预测准确性。此外,特征检测领域可以通过加入类别特定属性和上下文线索而显著多样化。这将使模型更加精细地理解车辆周围的环境,这对于做出分秒必争的驾驶决策至关重要。

除了这些技术改进之外,这项研究的下一步逻辑步骤涉及在作者的自动驾驶模拟器中应用YOLO-BEV算法。这种整合是实现端到端自动驾驶算法的基础要素。设想中的整合不仅仅是一种应用,而是验证模型在各种模拟条件下性能指标的关键测试平台。

此外,在与YOLO-BEV实现并行的情况下,还需要专注于将这个目标检测框架与先进的路径规划算法协同工作。这种合作将有助于创建一个统一的框架,不仅能够在360度全景中理解驾驶环境,还能够实时做出明智的导航决策。

这些计划中的改进的最终目标是显著增加作者模型的功能效力,将其更接近适用于现实世界自动驾驶应用的综合解决方案。

这篇关于YOLO-BEV的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/569991

相关文章

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

[数据集][目标检测]血细胞检测数据集VOC+YOLO格式2757张4类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):2757 标注数量(xml文件个数):2757 标注数量(txt文件个数):2757 标注类别数:4 标注类别名称:["Platelets","RBC","WBC","sickle cell"] 每个类别标注的框数:

[数据集][目标检测]智慧农业草莓叶子病虫害检测数据集VOC+YOLO格式4040张9类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):4040 标注数量(xml文件个数):4040 标注数量(txt文件个数):4040 标注类别数:9 标注类别名称:["acalcerosis","fertilizer","flower","fruit","grey

【YOLO 系列】基于YOLOV8的智能花卉分类检测系统【python源码+Pyqt5界面+数据集+训练代码】

前言: 花朵作为自然界中的重要组成部分,不仅在生态学上具有重要意义,也在园艺、农业以及艺术领域中占有一席之地。随着图像识别技术的发展,自动化的花朵分类对于植物研究、生物多样性保护以及园艺爱好者来说变得越发重要。为了提高花朵分类的效率和准确性,我们启动了基于YOLO V8的花朵分类智能识别系统项目。该项目利用深度学习技术,通过分析花朵图像,自动识别并分类不同种类的花朵,为用户提供一个高效的花朵识别

水面垃圾检测数据集 3000张 水面垃圾 带标注 voc yolo

数据集概述 该数据集包含3000张图像,专注于水面垃圾的检测。数据集已经按照VOC(Visual Object Classes)和YOLO(You Only Look Once)两种格式进行了标注,适用于训练深度学习模型,特别是物体检测模型,用于识别水面上的各种垃圾。 数据集特点 多样性:包含3000张图像,涵盖了多种类型的水面垃圾,确保模型能够识别各种类型的垃圾。双标注格式:提供VO

[数据集][目标检测]抽烟检测数据集VOC+YOLO格式22559张2类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):22559 标注数量(xml文件个数):22559 标注数量(txt文件个数):22559 标注类别数:2 标注类别名称:["cig-pack","smoke"] 每个类别标注的框数: cig-pack 框数 = 2

[数据集][目标检测]人脸口罩佩戴目标检测数据集VOC+YOLO格式8068张3类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):8068 标注数量(xml文件个数):8068 标注数量(txt文件个数):8068 标注类别数:3 标注类别名称:["face_with_mask","face_without_mask","mask"] 每个类别

CVPR 2024最新论文分享┆YOLO-World:一种实时开放词汇目标检测方法

论文分享简介 本推文主要介绍了CVPR 2024上的一篇论文《YOLO-World: Real-Time Open-Vocabulary Object Detection》,论文的第一作者为Tianheng Cheng和Lin Song,该论文提出了一种开放词汇目标检测的新方法,名为YOLO-World。论文通过引入视觉-语言建模和大规模预训练解决了传统YOLO检测器在固定词汇检测中的局限性。论

[数据集][目标检测]井盖丢失未盖破损检测数据集VOC+YOLO格式2890张5类别

数据集格式:Pascal VOC格式+YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数):2890 标注数量(xml文件个数):2890 标注数量(txt文件个数):2890 标注类别数:5 标注类别名称:["broke","circle","good","lose","uncovered"] 每个类别标

YOLO缺陷检测学习笔记(3)

文章目录 PCA主成分分析PCA的核心思想PCA的步骤PCA降维后的数据表达示例数据Step 1:标准化数据 Step 2:计算协方差矩阵Step 3:计算协方差矩阵的特征值和特征向量Step 4:选择主成分Step 5:将数据映射到主成分总结PCA的应用PCA的局限性 AUC和ROC1. ROC 曲线2. AUC 随机森林1. **随机森林的基本概念**2. **随机森林的优点**3. *