用于基于骨架的动作识别的空间时间图卷积网络 ST-GCN (代码+数据集+模型)

本文主要是介绍用于基于骨架的动作识别的空间时间图卷积网络 ST-GCN (代码+数据集+模型),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

简介 本仓库包含论文《用于基于骨架的动作识别的空间时间图卷积网络》的相关代码、数据集和模型。

ST-GCN 动作识别演示 我们的基于骨架的动作识别演示展示了ST-GCN如何从人体骨架中提取局部模式和关联性。下图显示了我们ST-GCN最后一层中每个节点的神经响应幅度。

触摸头部 坐下 脱鞋 进食 投踢他人 掷锤 清洁与抓举 拉力器 太极拳 抛球 上一行结果来自NTU-RGB+D数据集,第二行来自Kinetics-skeleton数据集。

前提条件

  • Python3(版本大于3.5)
  • PyTorch
  • Openpose(带Python API,仅用于演示)
  • 其他Python库可以通过运行pip install -r requirements.txt来安装

安装

 
1git clone https://github.com/yysijie/st-gcn.git; cd st-gcn
2cd torchlight; python setup.py install; cd ..

获取预训练模型 我们提供了ST-GCN的预训练模型权重。可以通过运行以下脚本来下载模型:

 
1bash tools/get_models.sh

您也可以从GoogleDrive或百度云获取模型,并手动将其放入./models目录下。

演示 您可以使用以下命令运行演示:

  • 离线姿态估计

     
    1python main.py demo_offline [--video ${视频路径}] [--openpose ${Openpose路径}]
  • 实时姿态估计

     
    1python main.py demo [--video ${视频路径}] [--openpose ${Openpose路径}]

可选参数:

  • PATH_TO_OPENPOSE: 如果Openpose Python API不在PYTHONPATH中,则需要此路径。
  • PATH_TO_VIDEO: 输入视频的文件名。

数据准备 我们在两个基于骨架的动作识别数据集上进行了实验:Kinetics-skeleton 和 NTU RGB+D。为了方便快速加载数据,在训练和测试前,数据集应转换为合适的文件结构。您可以从GoogleDrive下载预处理后的数据并解压文件:

 
1cd st-gcn
2unzip <st-gcn-processed-data.zip路径>

否则,如果您想自己处理原始数据,请参考以下指南。

  • Kinetics-skeleton Kinetics是一个基于视频的动作识别数据集,只提供原始视频剪辑而无骨架数据。为了获得关节位置,我们首先将所有视频调整为340x256的分辨率并将帧率转换为30 fps,然后通过Openpose从每帧中提取骨架。提取的骨架数据(Kinetics-skeleton,7.5GB)可以从GoogleDrive或百度云直接下载。

     

    解压后,通过以下命令重建数据库:

    1python tools/kinetics_gendata.py --data_path <Kinetics-skeleton路径>
  • NTU RGB+D NTU RGB+D可以从其官方网站下载。我们的实验只需要3D骨架模态(5.8GB)。之后,使用以下命令构建训练或评估所需的数据库:

    1python tools/ntu_gendata.py --data_path <nturgbd+d_skeletons路径>

    其中 <nturgbd+d_skeletons路径> 是您下载的NTU RGB+D数据集中3D骨架模态的位置。

测试预训练模型

  • 评估在Kinetics-skeleton上预训练的ST-GCN模型:

    1python main.py recognition -c config/st_gcn/kinetics-skeleton/test.yaml
  • 在NTU RGB+D上的跨视角评估:

    1python main.py recognition -c config/st_gcn/ntu-xview/test.yaml
  • 在NTU RGB+D上的跨主体评估:

    1python main.py recognition -c config/st_gcn/ntu-xsub/test.yaml

为了加速评估或修改批处理大小以减少内存成本,可以设置 --test_batch_size--device

1python main.py recognition -c <配置文件> --test_batch_size <批次大小> --device <gpu0> <gpu1> ...

结果 提供的模型预期Top-1准确度如下:

模型Kinetics-skeleton (%)NTU RGB+D (Cross View) (%)NTU RGB+D (Cross Subject) (%)
基线模型[1]20.383.174.3
ST-GCN (我们的模型)31.688.881.6

[1] Kim, T. S., and Reiter, A. 2017. Interpretable 3d human action analysis with temporal convolutional networks. In BNMW CVPRW.

训练 要训练一个新的ST-GCN模型,运行:

1python main.py recognition -c config/st_gcn/<dataset>/train.yaml [--work_dir <工作目录>]

其中 <dataset> 必须是ntu-xsub、ntu-xview或kinetics-skeleton,取决于您要使用的数据集。默认情况下,训练结果(包括模型权重、配置文件和日志文件)将保存在 ./work_dir 目录下,或如果您指定了 <工作目录> 则保存在该目录下。

您可以在命令行或配置文件中修改训练参数,如work_dir、batch_size、step、base_lr和device。优先级顺序为:命令行 > 配置文件 > 默认参数。更多信息,请使用 main.py -h 查看帮助。

最后,可以通过以下命令自定义模型评估:

1python main.py recognition -c config/st_gcn/<dataset>/test.yaml --weights <模型权重路径>

这篇关于用于基于骨架的动作识别的空间时间图卷积网络 ST-GCN (代码+数据集+模型)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1135863

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi