论文笔记End-to-end flow correlation tracking with spatial-temporal attention

本文主要是介绍论文笔记End-to-end flow correlation tracking with spatial-temporal attention,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文笔记End-to-end flow correlation tracking with spatial-temporal attention

  • 1. 标题及来源
  • 2. 阅读目的
  • 3. 领域
  • 4. 拟解决的问题
  • 5. 提出的方法
    • 5.1 算法概要
    • 5.2 Spatial-temporal attention module
  • 6. 结果
    • 6.1 OTB-2013实验结果
    • 6.2 OTB-2015实验结果
    • 6.3 VOT-2015实验结果
    • 6.4 VOT-2016实验结果
    • 6.5 消融实验
  • 7. 改进&存在的问题
  • 8. 可借鉴的点
  • 9. 知识补充
    • 9.1 Hadamard Product(哈达玛积)
    • 9.2 bilinear interpolation(双线性插值)
    • 9.3 cosine similarity(余弦相似度)
    • 9.4 光流(optical flow)
    • 9.5 RoI Pooling和RoI Align
    • 9.6 基于相关滤波的目标跟踪

1. 标题及来源

End-to-end flow correlation tracking with spatial-temporal attention, CVPR 2018

2. 阅读目的

1. 了解他人如何将时序信息加入到网络中
2. spatial-temporal attention(时空注意力机制)

3. 领域

Object tracking

4. 拟解决的问题

1. 将时序信息加入到网络中来解决遮挡问题和形变问题

5. 提出的方法

5.1 算法概要

在这里插入图片描述
该算法分为两个分支。
在Current Branch中,使用Feature Net提取当前帧的特征 ψ ( z ) \psi(z) ψ(z)
在Historical Branch中,

  1. 前T帧i都和第t-1帧做光流计算,
  2. 用光流wrap第i帧的特征,
  3. 把这些特征融合到一起,形成一个比较好的特征
  4. 将融合后的特征通过spatial-temporal attention模块重新定义权重,形成新的特征 ψ ( x ) \psi(x) ψ(x)
  5. ψ ( z ) 和 ψ ( x ) \psi(z)和\psi(x) ψ(z)ψ(x)输入到CF层获得响应值最大的点,这个就是待跟踪的目标

5.2 Spatial-temporal attention module

spatial attention
作者对前i帧的加权融合提出了一种新的加权策略
在这里插入图片描述
简单来讲,就是衡量第 i 帧的特征和t-1帧像不像,像的话就给一个比较大的权值,不像就给一个比较小的权值

temporal attention
在这里插入图片描述
实际上就是通道注意力机制,即对各特征通道进行加权,重新定义每个特征通道的权重。对于激活程度较大、贡献度较大的通道给予大的权重;对于激活程度较小、贡献度较小的通道给予小的权重

6. 结果

6.1 OTB-2013实验结果

在这里插入图片描述
在success plots of OPE中,FlowTrack的AUC score是0.689,超过了VOT2016的冠军CCOT,并且超过了另外一个使用flow information的算法SINT+
在Precision plots of OPE中,FlowTrack的得分是0.921,也超过了CCOT和SINT+。
效果能得到提升主要归功于丰富的光流信息

6.2 OTB-2015实验结果

在这里插入图片描述
从图中可以发现FlowTrack算法的效果是最好的

6.3 VOT-2015实验结果

在这里插入图片描述
在这里插入图片描述

6.4 VOT-2016实验结果

在这里插入图片描述

6.5 消融实验

在这里插入图片描述
decay:fuse the wraped feature maps by decaying with time
从表中可以发现,

  1. 当加入flow后,算法的提升效果都超过了6%
  2. 端到端训练的必要性:当使用fix flow时,除了在OTB2015数据集上,算法的效果得到了提升,但是在其它数据集上的效果都下降了。
  3. flow aggregation的有效性:对比decay与FlowTr可以发现,VOT2015和VOT2016上的EAO提升了3%个点
  4. temporal attention进一步提升了效果

7. 改进&存在的问题

1. 算法的速度较慢,只有在TITAN X上只有12fps
2. 算法的效果并不能超过级联RPN(CVPR2019)

8. 可借鉴的点

1. spatial-temporal attention机制
   详见5.2
2. 光流的融合方式
   取最近的T帧,然后将这T帧提取分别与第t-1帧计算光流,然后将这T帧的光流融合在一起,使用注意力机制,对每一帧赋予不同的权重

9. 知识补充

9.1 Hadamard Product(哈达玛积)

Hadamard Product:矩阵中对应位置相乘
在这里插入图片描述
参考资料:https://www.maixj.net/misc/hadamard-product-19256

9.2 bilinear interpolation(双线性插值)

参考资料:https://blog.csdn.net/xbinworld/article/details/65660665

9.3 cosine similarity(余弦相似度)

余弦相似度:两个向量之间夹角的余弦值

s i m i l a r i t y = c o s ( θ ) = A ⋅ B ∣ ∣ A ∣ ∣ ∣ ∣ B ∣ ∣ similarity = cos(\theta) = \frac{A \cdot B}{||A|| \ ||B||} similarity=cos(θ)=A BAB

参考资料:https://www.jianshu.com/p/fb4b38eb452d

9.4 光流(optical flow)

参考资料:https://blog.csdn.net/yushupan/article/details/78823548

9.5 RoI Pooling和RoI Align

参考资料:https://www.cnblogs.com/wangyong/p/8523814.html

9.6 基于相关滤波的目标跟踪

参考资料:https://blog.csdn.net/qq_34919792/article/details/89893433

这篇关于论文笔记End-to-end flow correlation tracking with spatial-temporal attention的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/588595

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

GNSS CTS GNSS Start and Location Flow of Android15

目录 1. 本文概述2.CTS 测试3.Gnss Flow3.1 Gnss Start Flow3.2 Gnss Location Output Flow 1. 本文概述 本来是为了做Android 14 Gnss CTS 的相关环境的搭建和测试,然后在测试中遇到了一些问题,去寻找CTS源码(/cts/tests/tests/location/src/android/locat

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit