2022CVPR(PoseC3D):Revisiting Skeleton-based Action Recognition

2023-12-04 18:04

本文主要是介绍2022CVPR(PoseC3D):Revisiting Skeleton-based Action Recognition,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Revisiting Skeleton-based Action Recognition

  • 摘要
  • 1、引言
  • 2、相关工作
  • 3、框架
    • 3.1. 姿势提取的良好实践
    • 3.2.从2D姿势到3D热图体积
    • 3.3.基于骨架的动作识别的3D-CNN
  • 4、实验
    • 4.2.姿势提取
    • 4.3. 3D热图体积的预处理
    • 4.4.与GCN的比较
    • 4.5. RGBPose-SlowFast
    • 4.6.与最先进的比较
  • 5、结论

摘要

许多基于骨架的动作识别方法采用图卷积网络(GCN)在人体骨骼之上提取特征。尽管在以前的工作中显示了积极的结果,但基于 GCN 的方法受到鲁棒性、互操作性和可扩展性的限制。

本文提出了一种新的基于骨架的动作识别方法PoseC3D,它依赖于3D热图堆栈而不是图序列作为人体骨骼的基本表示。与基于 GCN 的方法相比,PoseC3D 在学习时空特征方面更有效,对姿态估计噪声具有更强的鲁棒性,并且在跨数据集设置中更好地泛化。此外,PoseC3D可以处理多人场景,而不需要额外的计算成本,其特征在早期融合阶段可以很容易地与其他模式集成,这为进一步提高性能提供了很大的设计空间。

在四个具有挑战性的数据集上,PoseC3D 在仅在骨架上单独使用并与 RGB 模态结合使用时始终获得卓越的性能。

1、引言

基于GCN的方法在以下方面受到限制:

1)鲁棒性:虽然 GCN 直接处理人体关节的坐标,但其识别能力受到坐标分布偏移的显著影响,这在应用不同的姿态估计器来获取坐标时经常发生。因此,坐标中的小扰动通常会导致完全不同的预测。

2)互操作性:以前的工作表明,来自不同模态的表示,例如 RGB、光流和骨架是互补的。因此,这种模态的有效组合通常会导致动作识别的性能提升。然而,骨架表示的图形形式使得很难与其他模式融合,尤其是在早期或低级阶段,从而限制了组合的有效性。

3)可扩展性 : 由于GCN将每个人体关节视为一个节点,GCN的复杂度与人数成线性关系,限制了其对涉及多个人的任务的适用性,如群体活动识别。

本文提出了一个新的框架PoseC3D,PoseC3D 专注于考虑姿态估计器性能的二维骨架,如图 1 所示,它将重新表述为骨架关节而不是图的 2D 热图。不同时间步长的 2D 热图将沿时间维度堆叠以形成 3D 热图体积。PoseC3D然后在3D热图体积的顶部采用3D卷积神经网络来识别动作。

在这里插入图片描述

所提出的PoseC3D很好地解决了基于gcn的方法的局限性。使用 3D 热图体积减轻了对姿态估计技术的敏感性:我们发现 PoseC3D 在不同场景和以不同方式获得的人体骨骼之间具有很好的泛化能力。此外,PoseC3D 依赖于基本表示的热图,允许人们利用卷积网络架构的进步,并使与多流卷积网络中的其他模态集成更容易。这开辟了一个巨大的设计空间,以进一步提高识别性能。最后,3D热图体积的复杂性对感兴趣的人数量是不变的。因此,PoseC3D可以在不增加计算开销的情况下处理不同数量的人。

数据集:
FineGYM , NTURGB-D , Kinetics-400 和 Volleyball

2、相关工作

本文通过沿时间维度堆叠热图以形成 3D 热图体积,在此过程中不会丢失信息。此外,由于其良好的时空特征学习能力,本文使用 3D-CNN 而不是 2D-CNN。

3、框架

在这里插入图片描述
对于视频中的每一帧,首先使用两阶段姿态估计器(检测+姿态估计)进行二维人体姿态提取。然后沿时间维度堆叠关节或四肢的热图,并将预处理应用于生成的 3D 热图体积。最后,使用 3D-CNN 对 3D 热图体积进行分类。

3.1. 姿势提取的良好实践

作为基于骨架的动作识别、姿态或人体骨骼提取的关键预处理步骤,在很大程度上决定了最终的识别精度。如图1所示。2D姿势估计器大致可以分为自顶向下和自底向上方法。前者首先使用人体检测器识别单个实例,然后为每个个体提取姿势,后者通过将一组已识别的关键语义分组到骨架中来获得姿势。本文选择自顶向下方法

我们还通过实例化具有不同主干的位姿提取器来研究位姿估计器质量对动作识别的影响,发现自顶向下框架下位姿估计器质量不那么重要。最后,由于自顶向下姿态提取器不分青红皂白地估计图像中所有实例的多个边界框,如果我们可以通过我们对感兴趣的人的先验过滤框,例如知道我们感兴趣的真实边界框,则可以显着提高姿态质量。

3.2.从2D姿势到3D热图体积

从视频的帧中提取2D姿势后,将它们输入到PoseC3D中,我们将它们重新表述为3D热图体积。形式上,我们将2D姿势表示为大小为K x H xW的热图,其中K是关节数,H和W是帧的高度和宽度。我们可以直接使用自顶向下姿态估计器生成的热图作为目标热图,在给定相应边界框的情况下,对热图进行零填充以匹配原始帧。如果我们只有骨架关节的坐标三元组(xk,yk,ck),H 通过组合以每个关节为中心的 K 个高斯图::
在这里插入图片描述
其中 σ 控制高斯图的方差,(xk, yk) 和 ck 分别是第 k 个关节的位置和置信度分数。我们还可以通过堆叠计算为的高斯图来为肢体创建热图:
在这里插入图片描述
第k个肢体位于两个关节ak和bk之间。函数D计算从点(i;j)到段[(xak,yak),(xbk,ybk)]的距离。

可以很容易地将其扩展到多人情况,在这种情况下,我们可以直接累积所有人的第k个高斯位图,而无需放大热图。最后,通过沿时间维度叠加所有热图(J或L),获得三维热图体积,因此其大小为K x T x H x W。

**应用两种技术来减少 3D 热图体积的冗余 : **

1)以受试者为中心的裁剪。由于数据集的大小和位置在数据集中可能会有很大差异,因此关注动作主题是在相对较小的 H × W 预算下保留尽可能多的信息的关键。

2)均匀采样。由于PoseC3D建立在3D卷积层的基础上,通过对帧的子集进行采样,可以沿时间维度减小3D热图体积。然而,研究人员倾向于在3D-CNN的短时间窗口内对帧进行采样,例如64帧时间窗口中的采样帧,如SlowFast。虽然这种采样策略可能会错过视频的一些全局动态,但我们建议使用均匀采样策略来进行 3DCNN。特别是,我们通过将视频分成 n 个长度相等的片段并从每个片段中随机选择一个帧来从视频中采样 n 帧。我们发现这种采样策略特别有利于基于骨架的动作识别。

3.3.基于骨架的动作识别的3D-CNN

对于基于骨架的动作识别,GCN 长期以来一直是主流主干。相比之下,在基于 RGB 的动作识别中常用的 3D-CNN 在这个方向上的探索较少。为了证明 3D-CNN 在捕获骨架序列时空动态方面的能力,我们设计了两个基于 3D-CNN 的网络,即 Pose-SlowOnly 和 RGBPose-SlowFast

Pose-SlowOnly :专注于人体骨骼的模态,其架构受到SlowFast慢路径的启发,因为它在基于rgb的动作识别中具有良好的性能。

RGBPose-SlowFast :来早期融合人体骨骼和 RGB 帧,这是通过在基于骨架的动作识别中使用 3D-CNN 来实现的。

4、实验

4.2.姿势提取

在这里插入图片描述
a)首先比较了使用 2D 和 3D 骨架进行动作识别的识别性能。

2D关键点(即使是低质量的关键点)在动作识别中始终优于3D关键点(传感器收集或估计)。

b)为了比较自底向上和自顶向下方法的位姿估计质量,我们用相同的架构HRNet-w32 (HR-TD & HR-BU)实例化了这两种方法。此外,我们还使用MobileNet-v2主干实例化自顶向下的方法(Mobile-TD)进行比较

考虑到更好的性能和更快的推理速度(当帧中没有很多人时,Top-Down 运行得更快),我们在这项工作中使用 Top-Down 进行姿势提取。

c)感兴趣的人 vs.所有人。并非所有人都与要识别的动作有关。

比较了使用 3 种人边界框进行姿势提取:检测、跟踪和 GT(随着运动员的先验增加)。在表 3c 中,我们看到感兴趣的人的先验非常重要:即使是弱先验(每个视频 1 个 GT 框)也可以大幅提高性能。

**d)坐标 vs.热图。存储 3D 热图体积可能需要非常大量的磁盘空间。**为了提高效率,我们可以将 2D 姿势存储为坐标 (x, y, 分数),并根据我们在第 3.2 节中介绍的方法将它们恢复为 3D 热图体积。

对于低质量的 (LQ) 姿态估计器,Mean-Top1 下降了 2%。对于高质量的 (HQ) 姿态估计器,退化更温和(只有 0.4% MeanTop1 下降)。因此,我们选择存储坐标而不是3D热图体积。

4.3. 3D热图体积的预处理

主题为中心的裁剪是数据预处理中一个有用的步骤,它将 Top1 准确率提高了 1.0%,从 92.2% 提高到 93.2%。
在这里插入图片描述
对于均匀采样从整个剪辑中统一采样 32 帧。通过均匀采样,1-clip 测试甚至可以比使用 10-clip 测试的固定步幅采样获得更好的结果。
均匀采样始终优于具有固定时间跨度的采样。
均匀采样在基于 RGB 的识别方面也优于固定步幅采样

4.4.与GCN的比较

在这里插入图片描述
表4:PoseC3D 在参数数量和 FLOP 方面都比 GCN 对应物更轻,尽管PoseC3D是轻量级的,但在不同的数据集上仍然实现了具有竞争力的性能。

表5:为了测试两种模型的鲁棒性,我们可以丢弃输入中一定比例的关键点,看看这种扰动如何影响最终的准确性。通过随机删除每一帧中的1个肢体关键点来测试这两个模型,概率为p。

看到 3D-CNN 对输入扰动非常稳健:每帧删除 1 个肢体关键点仅导致 Mean-Top1 中的适度下降(小于 1%),而 GCN 的下降为 14.3%。用嘈杂的输入训练 GCN,类似于 dropout 操作。然而,即使在这种情况下,对于casep = 1,GCN的MeanTop1精度也下降了1.4%。
3D-CNN显著优于GCN。

图5:不同方法提取的姿势注释。3DCNN 在 cross-PoseAnno 设置中显示出强大的泛化能力

可扩展性:GCN的计算随视频中人数的增加呈线性扩展,这使得群体活动识别的效率较低。尽管参数和 FLOP 的数量要少得多,但 3D-CNN 在排球验证上达到了 91.3% 的 Top-1 准确率,比基于 GCN 的方法高 2.1%。

4.5. RGBPose-SlowFast

PoseC3D 的 3D-CNN 架构通过一些早期融合策略将姿势与其他模态融合更加灵活。
在这里插入图片描述
结果表明,对于RGB和Pose,双向特征融合优于单向特征融合。在早期阶段通过双向特征融合,与 1-clip 测试的早期+晚期融合可以优于 10-clip 测试的后期融合。RGB模态比Pose更重要,但我们在表7中观察到早期+晚期融合对两者的性能改进。

4.6.与最先进的比较

在这里插入图片描述
以前的方法侧重于基于GCN的3D骨架输入的识别,但我们证明了具有3D-CNN的高质量2D骨架可以产生更好的性能。在Kinetics上,当使用低质量的2D骨架时,我们的方法与之前的最新技术相当。当两者都使用高质量的方法时,我们的方法大大优于以前的方法。

5、结论

本文提出了PoseC3D:一种基于3D-CNN的骨骼动作识别方法,它以3D热图体积为输入。PoseC3D 解决了基于 GCN 的方法在鲁棒性、互操作性和可扩展性方面的局限性。使用轻量级 3D-ConvNets 和紧凑的 3D 热图体积作为输入,PoseC3D 在准确性和效率方面都优于基于 GCN 的方法。基于PoseC3D,我们在各种基准上实现了基于骨架和基于RGB+骨架的动作识别的最新技术。

这篇关于2022CVPR(PoseC3D):Revisiting Skeleton-based Action Recognition的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/454395

相关文章

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

Unable to instantiate Action, goodsTypeAction, defined for 'goodsType_findAdvanced' in namespace '/

报错: Unable to instantiate Action, goodsTypeAction,  defined for 'goodsType_findAdvanced' in namespace '/'goodsTypeAction......... Caused by: java.lang.ClassNotFoundException: goodsTypeAction.......

用ajax json给后台action传数据要注意的问题

必须要有get和set方法   1 action中定义bean变量,注意写get和set方法 2 js中写ajax方法,传json类型数据 3 配置action在struts2中

使用http-request 属性替代action绑定上传URL

在 Element UI 的 <el-upload> 组件中,如果你需要为上传的 HTTP 请求添加自定义的请求头(例如,为了通过身份验证或满足服务器端的特定要求),你不能直接在 <el-upload> 组件的属性中设置这些请求头。但是,你可以通过 http-request 属性来自定义上传的行为,包括设置请求头。 http-request 属性允许你完全控制上传的行为,包括如何构建请求、发送请

MACS bdgdiff: Differential peak detection based on paired four bedGraph files.

参考原文地址:[http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html](http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html) 文章目录 一、MACS bdgdiff 简介DESCRIPTION 二、用法

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

Android Studio打开Modem模块出现:The project ‘***‘ is not a Gradle-based project

花了挺长时间处理该问题,特记录如下:1.背景: 在Android studio 下导入一个新增的modem模块,如MPSS.DE.3.1.1\modem_proc\AAA, 目的是看代码方便一些,可以自由搜索各种关键字。但导入该项目时出现了如下错误: The project '***' is not a Gradle-based project.造成的问题: (1) project 下没有代码,而

Flink整合Oozie Shell Action 提交任务带Kerberos认证

最近这段时间一直在忙新集群迁移,上了最新的cdh6.3.0 于是Flink 提交遇到了许多的问题,还好有cloudera License 有了原厂的帮助和社区的伙伴,问题解决起来快了不少。 集群具体情况是 CDH6.3.0 Flink1.8.1,整个数据平台全部组件都上了kerberos和ldap因为要过认证,所以任务提交方法我们选择统一Oozie提交任务,并且因为kerberos认证,还需要F

Servlet mapping specifies an unknown servlet name Action

看一下web.xml中<servlet-mapping>有没有配错

SIM(Search-based user interest modeling)

导读 我们对电商场景兴趣建模的理解愈发清晰:1. 通过预估目标item的信息对用户过去的行为做search提取和item相关的信息是一个很核心有效的技术。2. 更长的用户行为序列信息对CTR建模是非常有效且珍贵的。从用户的角度思考,我们也希望能关注用户长期的兴趣。但是当前的search方法无论是DIN和DIEN都不允许我们在线对一个超长的行为序列比如1000以上做有效搜索。所以我们的目标就比较明