Insightface 之部署,TVM基础

2024-05-15 00:38
文章标签 基础 insightface 部署 tvm

本文主要是介绍Insightface 之部署,TVM基础,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考文档

  1. mxnet官方install手册
  2. TVM 0.4.0官方安装指导手册
  3. LLVM下载地址
  4. Debian/Ubuntu Linux下安装LLVM/Clang编译器

开发环境介绍

  1. 操作系统版本:Ubuntu16.04 LTS 64-bit,编译TVM的host、target版本;
  2. 目标器件为Firefly-RK3399,采用双核Cortex-A72和四核Cortex-A53的大小核架构。
  3. MXNet版本: v1.2.1
  4. LLVM版本: v6.0
  5. TVM版本: v0.4.0
  6. 交叉编译工具链版本:gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux

TVM编译、安装和测试顺序

TVM按照以下顺序来进行编译、安装:

  1. 编译MXNet(host版本,暂时以GPU模式安装)
  2. 安装LLVM
  3. 编译TVM(host版本)
  4. 交叉编译环境搭建
  5. 编译TVM runtime(target版本)

编译MXNet(host版本)

因为我们暂时测试的TVM前端模型是MXNet模型,所以进行编译模型之前要先安装host版本的MXNet。这里我们最简单的通过python-pip的方式进行安装。

更新python和pip

sudo apt-get update
sudo apt-get install -y wget python gcc
wget https://bootstrap.pypa.io/get-pip.py && sudo python get-pip.py

安装MXNet

安裝GPU版本(主机采用Nvidia的GTX1060)的MXNet时,需要提前安装好Nvidia库来驱动GPU。主要包括CUDA9.0(安装教程)和cuDNN(安装教程)两部分。

运行下面命令即可查看CUDA和cuDNN是否已经安装,以及对应版本号。

nvidia-smi
nvcc --version

这里写图片描述 
这里写图片描述

安装对应CUDA版本的MXNet

pip install mxnet-cu90
# 可选项,安装graphviz,为使用mxnet.viz包进行图形可视化所需。  
apt-get install graphviz  
pip install graphviz  
# 可选项,安装Intel MKL
pip install mxnet-cu90mkl

验证安装是否成功安装

python
# 进入python运行空间,然后输入以下python代码进行验证
>>> import mxnet as mx
>>> a = mx.nd.ones((2, 3)), mx.gpu())
>>> b = a * 2 + 1
>>> b.asnumpy()
array([[ 3.,  3.,  3.],[ 3.,  3.,  3.]], dtype=float32)
# 如果上述代码执行正确则表示MXNet host版本已经正确安装
>>> exit()

安装LLVM

如下图所示TVM对于ARM后端的支持是基于LLVM编译器实现的,TVM对于的LLVM版本的最低要求为4.0,最高版本不能超过6.0。本次安装LLVM版本6.0。

这里写图片描述

添加LLVM相关的apt-get源

第一步,首先编辑 /etc/apt/sources.list,加入以下源:

deb http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main
deb-src http://apt.llvm.org/xenial/ llvm-toolchain-xenial-6.0 main     

添加源后务必运行apt-get update,如果有错误提示,先运行第二步,然后apt-get update)

这里写图片描述

第二步,安装前必须取得相关证书

wget -O - http://llvm.org/apt/llvm-snapshot.gpg.key|sudo apt-key add -
  • 1安装llvm
apt-get install clang-6.0 lldb-6.0
  • 1显示如下即安装成功

这里写图片描述

上面的脚本只适用于Ubuntu16.04添加LLVM 6.0,如果你使用的是其他的操作系统和LLVM版本可以参考这里。

编译TVM(host版本)

安装cmake

由于TVM 0.4.0版本首次采用cmake作为编译配置工具,需要安装cmake。

cd /opt/software/
wget https://cmake.org/files/v3.11/cmake-3.11.0-rc2-Linux-x86_64.tar.gz
tar zxvf cmake-3.11.0-rc2-Linux-x86_64.tar.gz
ln -sf /opt/software/cmake-3.11.0-rc2-Linux-x86_64/bin/*  /usr/bin/ 

下载TVM

# git命令中选项recursive表示要将项目全部文件都下载,包括子模块。
git clone --recursive https://github.com/dmlc/tvm/
apt-get update
apt-get install -y python python-dev python-setuptools gcc libtinfo-dev zlib1g-dev

配置LLVM选项

在运行cmake-gui命令之前,修改tvm/CMakeLists.txt内容

# 显示执行构建过程中详细的信息,如编译工具选择,有助于区分系统编译工具和交叉编译工具
set(CMAKE_VERBOSE_MAKEFILE ON)
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" /usr/bin/llvm-config-6.0)

修改tvm/cmake/config.cmake

# 文件默认为set(USE_LLVM OFF)
set(USE_LLVM /usr/bin/llvm-config-6.0)

编译TVM

完成上述修改后,执行如下命令进行编译选项配置:

cd tvm
mkdir build
cd tvm/build
cmake-gui

这里写图片描述

make -j4
  • 如果编译正常完成之后,会在tvm的lib目录下面生成一些库文件。
  • libnnvm_compiler.so
  • libtvm_runtime.so
  • libtvm.so
  • libtvm_topi.so

设置PYTHONPATH环境变量

在安装之前先在/etc/bash.bashrc中设置PYTHONPATH环境变量

export PYTHONPATH=/opt/compile/BoxV3/tvm_host/tvm/python:/opt/compile/BoxV3/tvm_host/tvm/topi/python:/opt/compile/BoxV3/tvm_host/tvm/nnvm/python:${PYTHONPATH}
  •  

重启命令行以重新加载PYTHONPATH

若不设置PYTHONPATH环境变量,每次修改TVM的python源码均需要通过以下命令更新源码:

cd tvm
cd python; python setup.py install; cd ..
cd topi/python; python setup.py install; cd ../..
cd nnvm/python; python setup.py install; cd ../..

修改TVM Python源代码

在安装Python包之前为了交叉编译模型需要修改TVM Python源代码

针对ARM编译器选项和芯片型号修改

armv7与armv8交叉编译采用不同架构的交叉编译工具链,arv8自带neon寄存器支持,不需要在源码中添加。

  • tvm/python/tvm/target.py

针对armv8目标器件进行修改:

def rasp(options=None):"""Returns a rasp target.Parameters----------options : str or list of strAdditional options"""opts = ["-device=rasp","-mtriple=aarch64-linux-gnu","-mcpu=cortex-a57"]opts = _merge_opts(opts, options)return _api_internal._TargetCreate("llvm", *opts)

针对armv7目标器件进行修改:

def rasp(options=None):"""Returns a rasp target.Parameters----------options : list of strAdditional options"""opts = ["-device=rasp","-mtriple=arm-linux-gnueabihf","-mcpu=cortex-a7","-mattr=+neon"]opts = _merge_opts(opts, options)return _api_internal._TargetCreate("llvm", opts)

以下修改仅展示对armv8目标器件的修改内容,armv7器件在相同文件对应位置进行修改,替换为armv7的交叉工具链即可。

  • tvm/python/tvm/contrib/cc.py
def create_shared(output,objects,options=None,cc="aarch64-linux-gnu-g++"):def _linux_shared(output, objects, options, cc="aarch64-linux-gnu-g++"):
  • tvm/src/codegen/build_module.cc 
    注意:在测试时build_module.cc在vscode中未打开时无法搜索关键字来进行修改。
Target rasp(const std::vector<std::string>& options) {return CreateTarget("llvm", MergeOptions(options, {"-device=rasp","-mtriple=aarch64-linux-gnu","-mcpu=cortex-a57"}));
}
  • tvm/tests/python/unittest/test_codegen_arm.py
def test_popcount():target = 'llvm -target=aarch64-linux-gnu -mcpu=cortex-a57'
  • tvm/tutorials/nnvm_quick_start.py
if use_rasp:target = "llvm -target=aarch64-linux-gnu -mcpu=cortex-a57"
  • tvm/nnvm/python/nnvm/frontend/mxnet.py
#第33行int改为long
def _parse_tshape(tshape):"""Parse tshape in string."""return [long(x.strip()) for x in tshape.strip('()').split(',')]

编译安装TVM runtime(target版本)

交叉编译环境搭建

本文档目标器件为Firefly-RK3399(Cortex-A72+Cortex-A53,ARMv8架构),其他架构器件通常更换交叉编译链即可。

软件环境

  • 交叉工具链:gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux

设置本地编译链和交叉编译链

在/etc/bash.bashrc中设置本地编译链和交叉编译链,重启命令行使设置生效

# Native Compiler
export AR_host="ar"
export CC_host="gcc"
export CXX_host="g++"
export LINK_host="g++"#ARMv8 cross compiler
export ARCH=arm
export PATH=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin:$PATH
export CROSS_COMPILE=aarch64-linux-gnu-             
export CC=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc
export CXX=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-g++    
export LD=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ld
export AR=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ar
export AS=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-as
export RANLIB=/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-ranlib

通过命令echo $CC查看aarch64-linux-gnu-gcc交叉编译工具是否生效

root@parking:/opt/compile/PC/tvm_0.4.0_armv8/tvm/build# echo $CC
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/bin/aarch64-linux-gnu-gcc

重新复制一份TVM到另外的文件夹,保证不和TVM的host版本冲突,执行命令清除host编译工具生成的libtvm_runtime.so文件和cmake编译配置。

cd tvm
make clean
rm -r build/*

由于TVM runtime不需要LLVM,根据前面“配置LLVM选项”部分,屏蔽掉LLVM选项。

  • tvm/CMakeLists.txt
# llvm-config路径为/usr/bin/llvm-config-6.0
tvm_option(USE_LLVM "Build with LLVM, can be set to specific llvm-config path" OFF)
  • tvm/cmake/config.cmake
set(USE_LLVM OFF)
  • 1

再次执行cmake-gui进行编译配置,选择”Specify options for cross-compiling”

这里写图片描述

其中,C/C++对应选择交叉编译工具链中的工具,Target Root目录如下: 
/opt/toolchain/gcc-linaro-aarch64-linux-gnu-4.9-2014.09_linux/aarch64-linux-gnu/libc

make runtime
  • 1

编译成功后build文件夹会生成libtvm_runtime.so

这里编译的tvm_runtime运行时库是最终需要部署到嵌入式设备中的,和TVM模型编译无关。

这篇关于Insightface 之部署,TVM基础的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/990318

相关文章

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

nginx部署https网站的实现步骤(亲测)

《nginx部署https网站的实现步骤(亲测)》本文详细介绍了使用Nginx在保持与http服务兼容的情况下部署HTTPS,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值... 目录步骤 1:安装 Nginx步骤 2:获取 SSL 证书步骤 3:手动配置 Nginx步骤 4:测

Tomcat高效部署与性能优化方式

《Tomcat高效部署与性能优化方式》本文介绍了如何高效部署Tomcat并进行性能优化,以确保Web应用的稳定运行和高效响应,高效部署包括环境准备、安装Tomcat、配置Tomcat、部署应用和启动T... 目录Tomcat高效部署与性能优化一、引言二、Tomcat高效部署三、Tomcat性能优化总结Tom

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee