Openpose训练coco数据集整理

2024-05-15 00:58

本文主要是介绍Openpose训练coco数据集整理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、前言
openspoe比较繁杂,包含了人体姿态估计、手势估计、脸部关键点提取,还有3Dpose,是在caffe上再做的一层封装,但是如果我们实际去用的话,很多都是不需要的,比如openpose里面的多线程,GUI等等,在这里,我是基于coco2014数据集(coco2017也一样),只训练我们关心的openpose中的人体关键点估计,我们可以大致了解到,Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields就是CVPR2016的CPM加上PAF,inference是很直观的,就是提取关键点,算PAF积分,再把关键点放到每个group(就是确定是不是同一个人)完成多人的姿态估计。

二、安装编译caffe_train
caffe_train主要实现了数据的读取;包括cpm_data_layer.cpp和cpm_data_transformer.cpp的两个读取数据文件。在安装之前需要下载一下环境所需的库,其中protobuf是用来定义layers的,leveldb是训练时存储图片数据的数据库,opencv是图像处理库,boost是通用C++库,科学计算和python所需的部分库,以及其他依赖库等;
sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler
sudo apt-get install --no-install-recommends libboost-all-dev
sudo apt-get install openblas-dev numpy scipy matplotlib lapack-dev freetype-dev libpng-dev openblas-dev
sudo apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev
安装matlab 参考https://blog.csdn.net/qq_38469553/article/details/82050851
如下是编译caffe的步骤。
1、下载
git clone https://github.com/CMU-Perceptual-Computing-Lab/caffe_train
2、cd caffe
3、cp Makefile.config.example Makefile.config
4、Makefile.config中的一些必要的参数修改
USE_CUDNN := 1 编译GPU版本的caffe
OPENCV_VERSION := 3 反注释掉,支持opencv
PYTHON_INCLUDE := /usr/include/python2.7 
/usr/lib/python2.7/dist-packages/numpy/core/include 需要用python2.7编译
CUDA_DIR := /usr/local/cuda-9.0 指定cuda安装路径
CUDA_ARCH := -gencode arch=compute_30,code=sm_30 
-gencode arch=compute_35,code=sm_35 
-gencode arch=compute_50,code=sm_50 
-gencode arch=compute_50,code=compute_50 根据cuda版本删掉一些参数,例如会报错nvcc fatal : Unsupported gpu architecture 'compute_20’等
MATLAB_DIR := /usr/local/MATLAB/R2016b 要指定系统中安装的matlab
5、Makefile文件中的修改
LIBRARIES参数要做修改,否则回报hdf5相关的错误
LIBRARIES += glog gflags protobuf boost_system boost_filesystem m hdf5_hl hdf5 \ opencv_core opencv_highgui opencv_imgproc opencv_imgcodecs
6、开始编译caffe
make all -j8
make test
make runtest
7、编译完成需要导入caffe
sudo vim ~/.bashrc
export PYTHONPATH=/home/male/project1/caffe/python:$PYTHONPATH
cd /caffe
make pycaffe

caffe编译完成,python后可以import caffe,不报错。

三、训练openpose模型
要实现训练模型,就是数据的准备和读取了,上面说数据的读取主要由caffe来完成,此处主要就是进行数据的准备工作,主要由以下几个文件完成。
genCOCOMask.m
genJSON.m
genLMDB.py
getANNO.m
主要步骤如下:
git clone https://github.com/ZheC/Realtime_Multi-Person_Pose_Estimation
cd Realtime_Multi-Person_Pose_Estimation
1、原始数据集准备
我们这里可以使用coco2014或者coco2017作为原始训练数据集,所以这一步就是先下载存储数据集,同时要git下了一个cocoAPI。

2、控制台输入 matlab getANNO.m to convert the annotation format from json to mat in dataset/COCO/mat/。
3、控制台输入 matlab genCOCOMask.m 获取未标记人员的图像,
  这里要注意修改Matlab程序中的路径,对应与自己coco数据集的路径 
这里可能会出现一个error:Error in MaskApi.decode (line 84)
masks = maskApiMex( ‘decode’, Rs );
Error in genCOCOMask (line 48)
解决办法:
例如cocoAPI在名为coco/ 的目录下:
(1)cd MatlabAPI ,转到MatlabAPI目录下
(2) 输入matlab ,进入matlab控制台程序
(3)在matlab中输入:
mex(‘CFLAGS=$CFLAGS -Wall -std=c99’,’-largeArrayDims’,‘private/maskApiMex.c’,’…/common/maskApi.c’,’-I…/common/’,’-outdir’,‘private’);
4、控制台输入 matlab genJSON(‘COCO’) , 去生成训练所需的原始信息的json文件,

5、 python genLMDB.py,来生产训练所需的 LMDB文件,这里coco2014数据集对应生产189G。
运行前需要pip install --user lmdb
6、需要修改三个文件的配置

(1)修改pose_solver.prototxt
将其中的snapshot路径修改为自己的路径,其他的参数自行调整。我这里的学习率base_lr=0.00001,
snapshot: 10000,或者可以调节为5000,表示存储模型的迭代次数。
(2)修改pose_train_test.prototxt
第7行输入数据source的路径改为步骤5得到的lmdb的路径;第8行的batch_size可以根据你的服务器的计算能力来修改。
(3)下载预训练模型文件caffemodel
在train_pose.sh中可以看到,此openpose模型是基于VGG_ILSVRC_19_layers.caffemodel来训练的。下载地址:https://gist.github.com/ksimonyan/3785162f95cd2d5fee77
(4)修改train_pose.sh
将其中的运行用的caffe路径改为步骤4编译好的caffe,并指定VGG_ILSVRC_19_layers.caffemodel的存储路径,其他用到的文件的路径可以根据自己需求修改。
7、bash train_pose.sh 就可以开始训练了,后面可以跟0,1表示使用第一块和第二块显卡训练

https://blog.csdn.net/u013486760/article/details/100218875

这篇关于Openpose训练coco数据集整理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/990354

相关文章

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

Mysql中深分页的五种常用方法整理

《Mysql中深分页的五种常用方法整理》在数据量非常大的情况下,深分页查询则变得很常见,这篇文章为大家整理了5个常用的方法,文中的示例代码讲解详细,大家可以根据自己的需求进行选择... 目录方案一:延迟关联 (Deferred Join)方案二:有序唯一键分页 (Cursor-based Paginatio

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解

Oracle存储过程里操作BLOB的字节数据的办法

《Oracle存储过程里操作BLOB的字节数据的办法》该篇文章介绍了如何在Oracle存储过程中操作BLOB的字节数据,作者研究了如何获取BLOB的字节长度、如何使用DBMS_LOB包进行BLOB操作... 目录一、缘由二、办法2.1 基本操作2.2 DBMS_LOB包2.3 字节级操作与RAW数据类型2.