配置 human_pose_estimation_demo 的开发环境

2024-06-06 18:18

本文主要是介绍配置 human_pose_estimation_demo 的开发环境,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

配置 human_pose_estimation 的开发环境

  • 主要讲述如何在 VS2017 IDE 里面配置 OpenIVNO 的演示案例 human_pose_estimation_demo 开发环境。

1. 开发环境说明

  • 系统版本:windows 10
  • OpenVINO 版本:2020 1
  • IDE :VS2017

2. 创建项目

  • 打开 VS017 ,新建项目,在新建项目时选择空项目
    creat_project
  • 然后将 OpenVINO human_pose_estimation_demo 文件夹下面的 include 和 src 文件夹以及 main.cpp 复制到新建项目目录下
    copy file
  • 然后将复制过来的文件分别添加到项目的头文件和源文件
    add_files
  • 此时运行 main.cpp 文件,会发现存在许多错误,下一步我们就是需要进行一系列的配置来消除这些错误。

3. VS2017 配置

  • 这里主要在 VS2017 里面配置 包含目录库目录 以及链接器 输入

3.1 配置包含目录

  • 单击视图,点击其他窗口,在点击属性管理器
    set_property
  • 完成之后,我们就可以看到属性管理器了,然后在属性管理器里面点击 Debug | x64 ,另外将调试也设置为 Debug x64 。
    set_debug_x64
  • 接下来我们就在 VC++ 包含目录添加一下内容(具体还是要看自己的电脑文件夹,此仅供参考):
    C:\Users\LWL\Documents\Intel\OpenVINO\omz_demos_build\thirdparty
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\open_model_zoo\demos\common
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\samples\cpp\common
    E:\human_pose_estimation\human_pose_estimation\include
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\include
    C:\Users\LWL\Documents\Intel\OpenVINO\omz_demos_build\thirdparty\gflags\include
    C:\IntelSWTools\openvino_2020.1.033\opencv\include
    
    set_inlucde_path
  • 如果出现这个错误
    error
  • 请在属性页面,点击 C/C++ ,再点击 命令行,然后在里面添加 /D _CRT_SECURE_NO_WARNINGS ,最后点击确定即可。
    debug_error
  • 到此为止,我们的包含目录配置完成。

3.2 配置库目录

  • 在 VC++ 库目录添加以下内容:
    C:\Users\LWL\Documents\Intel\OpenVINO\omz_demos_build\intel64\Debug
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\lib\intel64\Debug
    C:\IntelSWTools\openvino_2020.1.033\opencv\lib
    
    set_lib_path

3.3 配置链接器输入

  • 在 链接器->输入 里面添加以下内容
    opencv_calib3d420d.lib
    opencv_core420d.lib
    opencv_dnn420d.lib
    opencv_features2d420d.lib
    opencv_flann420d.lib
    opencv_gapi420d.lib
    opencv_highgui420d.lib
    opencv_imgcodecs420d.lib
    opencv_imgproc420d.lib
    opencv_ml420d.lib
    opencv_objdetect420d.lib
    opencv_photo420d.lib
    opencv_stitching420d.lib
    opencv_video420d.lib
    opencv_videoio420d.lib
    inference_engine_c_apid.lib
    inference_engine_nn_builderd.lib
    inference_engined.lib
    monitors.lib
    gflags_nothreads_static.lib
    pdh.lib
    shlwapi.lib
    kernel32.lib
    user32.lib
    gdi32.lib
    winspool.lib
    shell32.lib
    ole32.lib
    oleaut32.lib
    uuid.lib
    comdlg32.lib
    advapi32.lib
    

4 配置环境变量

  • 最后一步就是添加环境变量了。我们需要在环境变量添加以下内容:
    C:\IntelSWTools\openvino_2020.1.033\opencv\bin
    C:\Users\LWL\Documents\Intel\OpenVINO\omz_demos_build\intel64\Debug
    C:\Users\LWL\Documents\Intel\OpenVINO\omz_demos_build\intel64\Release
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\bin\intel64\Debug
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\bin\intel64\Release
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\inference_engine\external\tbb\bin
    C:\IntelSWTools\openvino_2020.1.033\deployment_tools\ngraph\lib
    
    set_envirment
  • 环境变量配置完成之后,我们就可以去运行程序了。

5.运行 human_pose_estimation

  • 由于在运行 human_pose_estimation 需要输入参数,所以我们需要添加命令行参数
  • 在 Debug 属性页面,点击调试,点击命令参数
    add_argc
  • 在里面添加
    -i C:\Users\LWL\Desktop\sample-videos-master\classroom.mp4 -m C:\Users\LWL\Desktop\human-pose-estimation-0001.xml -d CPU
    
  • 其中 -i 参数默认为 cam,使用摄像头作为输入。也可以在 -i 后面加视频文件路径,使用视频输入。
    -m 参数为模型文件下的 xml 文件。
    -d 参数为使用执行的设备,这里使用 CPU 来执行。
  • 如果不知道怎么下载模型,请参考文章:OpenVINO 学习笔记(3):执行 OpenVINO Demos
  • 运行结果(注意要以管理员身份运行)
    run_result

6. 结语

  • 由于本人也是刚学习 OpenVINO ,如果其中有不对的地方或是需要改进的地方,请指正。
  • 联系方式 email:lwl510ll@163.om
  • 本文到这就结束了,谢谢大家观看。

这篇关于配置 human_pose_estimation_demo 的开发环境的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1036864

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

这15个Vue指令,让你的项目开发爽到爆

1. V-Hotkey 仓库地址: github.com/Dafrok/v-ho… Demo: 戳这里 https://dafrok.github.io/v-hotkey 安装: npm install --save v-hotkey 这个指令可以给组件绑定一个或多个快捷键。你想要通过按下 Escape 键后隐藏某个组件,按住 Control 和回车键再显示它吗?小菜一碟: <template

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于

嵌入式QT开发:构建高效智能的嵌入式系统

摘要: 本文深入探讨了嵌入式 QT 相关的各个方面。从 QT 框架的基础架构和核心概念出发,详细阐述了其在嵌入式环境中的优势与特点。文中分析了嵌入式 QT 的开发环境搭建过程,包括交叉编译工具链的配置等关键步骤。进一步探讨了嵌入式 QT 的界面设计与开发,涵盖了从基本控件的使用到复杂界面布局的构建。同时也深入研究了信号与槽机制在嵌入式系统中的应用,以及嵌入式 QT 与硬件设备的交互,包括输入输出设

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推