本文主要是介绍YoloV8改进策略:ASF-YOLO,结合了空间和尺度特征在小目标和密集目标场景有效涨点,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
摘要
本文提出了一种新型的Attentional Scale Sequence Fusion based You Only Look Once (YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,以实现准确且快速的细胞实例分割。该框架建立在YOLO分割框架之上,采用Scale Sequence Feature Fusion (SSFF)模块增强网络的多尺度信息提取能力,并使用Triple Feature Encoder (TPE)模块融合不同尺度的特征图以增加详细信息。此外,还引入了一个Channel and Position Attention Mechanism (CPAM),以整合SSFF和TPE模块,该机制专注于信息通道和空间位置相关的小物体,以改进检测和分割性能。在两个细胞数据集上的实验验证表明,本文提出的ASF-YOLO模型在分割准确性和速度方面均表现出色,在2018 Data Science Bowl数据集上达到了0.91的box mAP、0.887的mask mAP以及47.3 FPS的推理速度,超过了当前最先进的方法。
经过验证,在小目标和密集目标场景有效涨点。
论文:《ASF-YOLO:一种基于注意尺度序列融合的细胞实例分割YOLO模型》
我们提出了一种基于注意力尺度序列融合的You Only Look Once(YOLO)框架(ASF-YOLO),该框架结合了空间和尺度特征,用于准确快速的细胞实例分割。在YOLO分割框架的基础上,我们采用尺度序列特征融合(SSFF)模块增强网络的多尺度信息提取能力,并采用三重特征编码器(TPE)模块融合不同尺度的特征图以增加详细信息。我们进一步引入通道和位
这篇关于YoloV8改进策略:ASF-YOLO,结合了空间和尺度特征在小目标和密集目标场景有效涨点的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!