Openpose训练coco数据集整理

2024-05-15 00:58

本文主要是介绍Openpose训练coco数据集整理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、前言
openspoe比较繁杂,包含了人体姿态估计、手势估计、脸部关键点提取,还有3Dpose,是在caffe上再做的一层封装,但是如果我们实际去用的话,很多都是不需要的,比如openpose里面的多线程,GUI等等,在这里,我是基于coco2014数据集(coco2017也一样),只训练我们关心的openpose中的人体关键点估计,我们可以大致了解到,Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields就是CVPR2016的CPM加上PAF,inference是很直观的,就是提取关键点,算PAF积分,再把关键点放到每个group(就是确定是不是同一个人)完成多人的姿态估计。

二、安装编译caffe_train
caffe_train主要实现了数据的读取;包括cpm_data_layer.cpp和cpm_data_transformer.cpp的两个读取数据文件。在安装之前需要下载一下环境所需的库,其中protobuf是用来定义layers的,leveldb是训练时存储图片数据的数据库,opencv是图像处理库,boost是通用C++库,科学计算和python所需的部分库,以及其他依赖库等;
sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
sudo apt-get install --no-install-recommends libboost-all-dev
sudo apt-get install openblas-dev numpy scipy matplotlib lapack-dev freetype-dev libpng-dev openblas-dev
sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev
安装matlab 参考https://blog.csdn.net/qq_38469553/article/details/82050851
如下是编译caffe的步骤。
1、下载
git clone https://github.com/CMU-Perceptual-Computing-Lab/caffe_train
2、cd caffe
3、cp Makefile.config.example Makefile.config
4、Makefile.config中的一些必要的参数修改
USE_CUDNN := 1 编译GPU版本的caffe
OPENCV_VERSION := 3 反注释掉,支持opencv
PYTHON_INCLUDE := /usr/include/python2.7 
/usr/lib/python2.7/dist-packages/numpy/core/include 需要用python2.7编译
CUDA_DIR := /usr/local/cuda-9.0 指定cuda安装路径
CUDA_ARCH := -gencode arch=compute_30,code=sm_30 
-gencode arch=compute_35,code=sm_35 
-gencode arch=compute_50,code=sm_50 
-gencode arch=compute_50,code=compute_50 根据cuda版本删掉一些参数,例如会报错nvcc fatal : Unsupported gpu architecture 'compute_20’等
MATLAB_DIR := /usr/local/MATLAB/R2016b 要指定系统中安装的matlab
5、Makefile文件中的修改
LIBRARIES参数要做修改,否则回报hdf5相关的错误
LIBRARIES += glog gflags protobuf boost_system boost_filesystem m hdf5_hl hdf5 \ opencv_core opencv_highgui opencv_imgproc opencv_imgcodecs
6、开始编译caffe
make all -j8
make test
make runtest
7、编译完成需要导入caffe
sudo vim ~/.bashrc
export PYTHONPATH=/home/male/project1/caffe/python:$PYTHONPATH
cd /caffe
make pycaffe

caffe编译完成,python后可以import caffe,不报错。

三、训练openpose模型
要实现训练模型,就是数据的准备和读取了,上面说数据的读取主要由caffe来完成,此处主要就是进行数据的准备工作,主要由以下几个文件完成。
genCOCOMask.m
genJSON.m
genLMDB.py
getANNO.m
主要步骤如下:
git clone https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation
cd Realtime_Multi-Person_Pose_Estimation
1、原始数据集准备
我们这里可以使用coco2014或者coco2017作为原始训练数据集,所以这一步就是先下载存储数据集,同时要git下了一个cocoAPI。

2、控制台输入 matlab getANNO.m to convert the annotation format from json to mat in dataset/COCO/mat/。
3、控制台输入 matlab genCOCOMask.m 获取未标记人员的图像,
  这里要注意修改Matlab程序中的路径,对应与自己coco数据集的路径 
这里可能会出现一个error:Error in MaskApi.decode (line 84)
masks = maskApiMex( ‘decode’, Rs );
Error in genCOCOMask (line 48)
解决办法:
例如cocoAPI在名为coco/ 的目录下:
(1)cd MatlabAPI ,转到MatlabAPI目录下
(2) 输入matlab ,进入matlab控制台程序
(3)在matlab中输入:
mex(‘CFLAGS=$CFLAGS -Wall -std=c99’,’-largeArrayDims’,‘private/maskApiMex.c’,’…/common/maskApi.c’,’-I…/common/’,’-outdir’,‘private’);
4、控制台输入 matlab genJSON(‘COCO’) , 去生成训练所需的原始信息的json文件,

5、 python genLMDB.py,来生产训练所需的 LMDB文件,这里coco2014数据集对应生产189G。
运行前需要pip install --user lmdb
6、需要修改三个文件的配置

(1)修改pose_solver.prototxt
将其中的snapshot路径修改为自己的路径,其他的参数自行调整。我这里的学习率base_lr=0.00001,
snapshot: 10000,或者可以调节为5000,表示存储模型的迭代次数。
(2)修改pose_train_test.prototxt
第7行输入数据source的路径改为步骤5得到的lmdb的路径;第8行的batch_size可以根据你的服务器的计算能力来修改。
(3)下载预训练模型文件caffemodel
在train_pose.sh中可以看到,此openpose模型是基于VGG_ILSVRC_19_layers.caffemodel来训练的。下载地址:https://gist.github.com/ksimonyan/3785162f95cd2d5fee77
(4)修改train_pose.sh
将其中的运行用的caffe路径改为步骤4编译好的caffe,并指定VGG_ILSVRC_19_layers.caffemodel的存储路径,其他用到的文件的路径可以根据自己需求修改。
7、bash train_pose.sh 就可以开始训练了,后面可以跟0,1表示使用第一块和第二块显卡训练

https://blog.csdn.net/u013486760/article/details/100218875

这篇关于Openpose训练coco数据集整理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/990354

相关文章

Redis的数据过期策略和数据淘汰策略

《Redis的数据过期策略和数据淘汰策略》本文主要介绍了Redis的数据过期策略和数据淘汰策略,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录一、数据过期策略1、惰性删除2、定期删除二、数据淘汰策略1、数据淘汰策略概念2、8种数据淘汰策略

轻松上手MYSQL之JSON函数实现高效数据查询与操作

《轻松上手MYSQL之JSON函数实现高效数据查询与操作》:本文主要介绍轻松上手MYSQL之JSON函数实现高效数据查询与操作的相关资料,MySQL提供了多个JSON函数,用于处理和查询JSON数... 目录一、jsON_EXTRACT 提取指定数据二、JSON_UNQUOTE 取消双引号三、JSON_KE

Python给Excel写入数据的四种方法小结

《Python给Excel写入数据的四种方法小结》本文主要介绍了Python给Excel写入数据的四种方法小结,包含openpyxl库、xlsxwriter库、pandas库和win32com库,具有... 目录1. 使用 openpyxl 库2. 使用 xlsxwriter 库3. 使用 pandas 库

SpringBoot定制JSON响应数据的实现

《SpringBoot定制JSON响应数据的实现》本文主要介绍了SpringBoot定制JSON响应数据的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们... 目录前言一、如何使用@jsonView这个注解?二、应用场景三、实战案例注解方式编程方式总结 前言

使用Python在Excel中创建和取消数据分组

《使用Python在Excel中创建和取消数据分组》Excel中的分组是一种通过添加层级结构将相邻行或列组织在一起的功能,当分组完成后,用户可以通过折叠或展开数据组来简化数据视图,这篇博客将介绍如何使... 目录引言使用工具python在Excel中创建行和列分组Python在Excel中创建嵌套分组Pyt

在Rust中要用Struct和Enum组织数据的原因解析

《在Rust中要用Struct和Enum组织数据的原因解析》在Rust中,Struct和Enum是组织数据的核心工具,Struct用于将相关字段封装为单一实体,便于管理和扩展,Enum用于明确定义所有... 目录为什么在Rust中要用Struct和Enum组织数据?一、使用struct组织数据:将相关字段绑

在Mysql环境下对数据进行增删改查的操作方法

《在Mysql环境下对数据进行增删改查的操作方法》本文介绍了在MySQL环境下对数据进行增删改查的基本操作,包括插入数据、修改数据、删除数据、数据查询(基本查询、连接查询、聚合函数查询、子查询)等,并... 目录一、插入数据:二、修改数据:三、删除数据:1、delete from 表名;2、truncate

Java实现Elasticsearch查询当前索引全部数据的完整代码

《Java实现Elasticsearch查询当前索引全部数据的完整代码》:本文主要介绍如何在Java中实现查询Elasticsearch索引中指定条件下的全部数据,通过设置滚动查询参数(scrol... 目录需求背景通常情况Java 实现查询 Elasticsearch 全部数据写在最后需求背景通常情况下

Java中注解与元数据示例详解

《Java中注解与元数据示例详解》Java注解和元数据是编程中重要的概念,用于描述程序元素的属性和用途,:本文主要介绍Java中注解与元数据的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参... 目录一、引言二、元数据的概念2.1 定义2.2 作用三、Java 注解的基础3.1 注解的定义3.2 内

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据