【文献阅读】1-Underwater object detection using Invert Multi-Class Adaboost with deep learning

本文主要是介绍【文献阅读】1-Underwater object detection using Invert Multi-Class Adaboost with deep learning,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用多反转级Adaboost算法实现水下目标检测

  • 摘要
    • 关键词
    • 背景
    • 创新点
    • 方法
    • 实验
    • 结论与不足
      • 参考

摘要

本文提出了一种新新的水下目标识别算法,基于深度学习的Sample-WeIghted hyPEr Network (SWIPENet) 神经网络,加上新的样本加权损失函数Invert Multi-Class Adaboost (IMA) 进行样本重新加权的识别方法。

关键词

水下目标识别多反转级Adaboost样本重新加权噪声数据

背景

为解决水下目标识别的两方面困难:

  1. 在真实的应用场景中,目标物通常是很小体积,且图像模糊
  2. 水下数据集图像常常伴随异质性的噪声

创新点

提出新的水下目标识别神经网络SWIPENet
提出了一个新的样本权重损失函数 +Multi-Class Invert Adaboost样本重权算法

方法

SWIPENeT网络结构–灵感来源于DSSD网络

1.底层网络:VGG16 模块
首先,多个down-sampling convolution layers 提取有利于物体分类的高语义特征图
2.由于图片过于单一后,加入多个up-sampling deconvolution layersskip connection
3.最后使用dilated convolution layers使用 ReLU 函数,来获取较多的语义,不丢失用于物体定位的信息,扩大感受野
4.以及新的sample-weigthed loss 模块,让算法更加注重于高权重样本,而忽略低权重样本(特征学习)。
5.加入样本重权算法Multi-Class Invert Adaboost,降低不确定物体权重,减少噪声影响。
在这里插入图片描述

IMA算法-----伪代码
首先顺序训练多个基本分类器,并根据其错误率Em分配权重值α。然后,将由前面的分类器分类错误的样本分配较高的权重,从而使后面的分类器专注于学习这些样本。最后,将所有弱基础分类器组合在一起,形成具有相应权重的整体分类器。IMA还训练了M次SWIPENet,然后将它们整合为一个统一模型。不同的是,在每次训练迭代中,IMA都会减少丢失对象的权重,以减少这些“干扰”样本的影响
在这里插入图片描述
Loss函数公式
在这里插入图片描述

实验

1.在两个数据集上面URPC2017 和 URPC2018进行测试
2.并与SSD,YOLOv3和FasterRCNN检测框架做比较
3.消融研究
3.1.dilated convolution layers (空洞卷积) 和skip connection跳连)对网络影响,设计一个基准网络UWNet1,结果与SWIPENet网络相同,进行对比实验
在这里插入图片描述

3.2.IMA对网络影响,进行单一模型和集合模型对比实验
在这里插入图片描述
在这里插入图片描述

结论与不足

时间复杂度比单一模型高M倍,因为它是M个深度神经网络的集合体。趋势:降低时间复杂度
引入注意力机制和新的损失函数为减少噪声和目标识别提供借鉴

参考

参考文献
[1]: 代码原文
[2]: 代码源码
[3]:CV Code|计算机视觉开源周报20200504期
[4]: 【水下目标检测】Underwater object detection using Invert Multi-Class Adaboost with deep learning
[5]: 一文梳理水下检测方法

这篇关于【文献阅读】1-Underwater object detection using Invert Multi-Class Adaboost with deep learning的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/688872

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

2014 Multi-University Training Contest 8小记

1002 计算几何 最大的速度才可能拥有无限的面积。 最大的速度的点 求凸包, 凸包上的点( 注意不是端点 ) 才拥有无限的面积 注意 :  凸包上如果有重点则不满足。 另外最大的速度为0也不行的。 int cmp(double x){if(fabs(x) < 1e-8) return 0 ;if(x > 0) return 1 ;return -1 ;}struct poin

2014 Multi-University Training Contest 7小记

1003   数学 , 先暴力再解方程。 在b进制下是个2 , 3 位数的 大概是10000进制以上 。这部分解方程 2-10000 直接暴力 typedef long long LL ;LL n ;int ok(int b){LL m = n ;int c ;while(m){c = m % b ;if(c == 3 || c == 4 || c == 5 ||

2014 Multi-University Training Contest 6小记

1003  贪心 对于111...10....000 这样的序列,  a 为1的个数,b为0的个数,易得当 x= a / (a + b) 时 f最小。 讲串分成若干段  1..10..0   ,  1..10..0 ,  要满足x非递减 。  对于 xi > xi+1  这样的合并 即可。 const int maxn = 100008 ;struct Node{int

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

【Python报错已解决】AttributeError: ‘list‘ object has no attribute ‘text‘

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 前言一、问题描述1.1 报错示例1.2 报错分析1.3 解决思路 二、解决方法2.1 方法一:检查属性名2.2 步骤二:访问列表元素的属性 三、其他解决方法四、总结 前言 在Python编程中,属性错误(At

类型信息:反射-Class

在说反射前提一个概念:RTTI(在运行时,识别一个对象的类型) public class Shapes {public static void main(String[] args) {List<Shape> shapes = Arrays.asList(new Circle(), new Square(), new Triangle());for (Shape shape : shapes

react笔记 8-17 属性绑定 class绑定 引入图片 循环遍历

1、绑定属性 constructor(){super()this.state={name:"张三",title:'我是一个title'}}render() {return (<div><div>aaaaaaa{this.state.name}<div title={this.state.title}>我是一个title</div></div></div>)} 绑定属性直接使用花括号{}   注

【阅读文献】一个使用大语言模型的端到端语音概要

摘要 ssum框架(Speech Summarization)为了 从说话人的语音提出对应的文本二题出。 ssum面临的挑战: 控制长语音的输入捕捉 the intricate cross-mdoel mapping 在长语音输入和短文本之间。 ssum端到端模型框架 使用 Q-Former 作为 语音和文本的中介连接 ,并且使用LLMs去从语音特征正确地产生文本。 采取 multi-st