AI嵌入式RK3588人工智能开发 --- 【2】RKNPU软件推理框架

2024-08-28 01:36

本文主要是介绍AI嵌入式RK3588人工智能开发 --- 【2】RKNPU软件推理框架,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、RKNPU推理软件框架 

1.1 推理软件框架


(1)RKNPU 硬件层
关于 RKNPU 硬件层在上个博文【AI嵌入式人工智能开发 --- 【1】初始RKNPU-CSDN博客】已经进行了了解,这里就不再进行过多的赘述。
(2)RKNPU 驱动层
      RKNPU 的驱动层是连接上层应用和 RKNPU 硬件的桥梁。驱动层的主要作用是将应用程序需要推理的内容提交给 RKNPU 进行计算,从而加速神经网络的训练和推理过程。具体来说, 驱动层需要完成以下任务:
硬件初始化:驱动层需要初始化 RKNPU 硬件,包括设置寄存器、分配内存等操作,以确保 RKNPU 可以正常工作。
数据传输:驱动层需要将数据从主机内存传输到 RKNPU 内存中,以便进行计算。在计算 完成后,驱动层还需要将计算结果传输回主机内存。
计算任务调度:驱动层需要根据应用程序的需求,管理和分配 RKNPU 的计算资源,以确 保多个计算任务之间不会互相干扰。
(3)RKNPU 应用层
      RKNPU 应用层由 AI 应用程序、RKNN API 以及运行时所需要的库所组成。
     开发者通过调用瑞芯微提供好的 API 接口进行 AI 应用的开发,瑞芯微分别提供了 C 语言和 Python 语言这两种 API 帮助开发者进行嵌入式设备部署,Python 语言提供的接口较为简单, 旨在帮助用户进行前期的模型检测、测试以及应用调试,而要想得到更好的效果从而真正应用到实际项目中就要使用 C API 接口了。
      而无论是由 C API 接口还是 Python 的 API 接口编写的应用程序,要想实际运行都需要相应 的动态库,动态库包含这些 API 的具体实现,这些动态库由瑞芯微所提供。而我们只需要根据 瑞芯微所提供的 API 编写对应的应用程序即可。

1.2 RKNN模型

      RKNN(Rockchip Neural Network)是瑞芯微公司开发的一种神经网络模型格式,它可以将常见的深度学习模型转换为适用于瑞芯微的 AI 加速器 RKNPU 的模型格式。RKNN 模型的优点是在保证精度的同时,可以实现高效的推理和低功耗的计算。
      下面是 RKNN 模型的详细介绍:
      RKNN 模型的文件格式:RKNN 模型使用自定义的文件格式来表示神经网络模型。它将神经网络模型划分为两个部分:静态部分和动态部分。静态部分包括模型的网络结构和权重,而动态部分包括输入输出的形状和类型等信息。使用这种格式可以减少模型的存储空间和加载时间。
      RKNN 模型的转换工具:为了将其他常见的深度学习模型转换为 RKNN 模型,瑞芯微提供了一个转换工具 RKNN-Toolkit2。该工具支持将 TensorFlow、Caffe、MXNet 等框架训练出来的模型转换为 RKNN 模型,并且支持对模型进行量化、融合等优化操作,以提高运行效率。
      RKNN 模型的部署和推理:RKNN 模型可以通过 RKNPU 硬件进行高效的推理。在部署 RKNN 模型时,开发者需要使用 RKNPU 提供的 SDK,并调用相应的 API 接口来加载和运行 RKNN 模型。 由于 RKNPU 硬件的优化,RKNN 模型可以实现高效的推理和低功耗的计算。

1.3 资料介绍 

1.3.1 RKNN-Toolkit2介绍

      RKNN Toolkit2 仓库链接为 https://github.com/rockchip-linux/rknn-toolkit2。
文件夹内容如下所示:

      RKNN-Toolkit2 资料包中有四个目录,分别为 docs、examples、packages 和 rknn_toolkit_lite2。
      docs 目录包含了 RKNN-Toolkit2 的使用文档,包括更新记录、两个 Python 环境所需的依赖 项、RKNN 算子支持列表、快速入门指南以及使用指导手册。
      examples 目录包含了 RKNN-Toolkit2 的一些示例代码,用于演示 RKNN-Toolkit2 的一些功能。 通过运行该示例代码,可以帮助用户更好的理解和掌握 RKNN-Toolkit2 的具体功能和使用方法。
      packages 目录提供了 Python3.6 和 Python3.8 两个版本的安装包,分别对应 X86 平台的 ubuntu18 和 ubuntu20 两个发行版 Linux 操作系统。
      而 rknn_toolkit_lite2 属于 RKNN-Toolkit2 的一个阉割版,会在下一小节进行讲解和对比。

下面对 RKNN-Toolkit2 进行简单的介绍:
      RKNN-Toolkit2 是瑞芯微为用户提供的、在 PC 端 ubuntu 平台进行模型转换、推理和性能评估的开发套件,用户通过该工具提供的 Python 接口可以便捷地完成以下功能:
模型转换: 支持 Caffe、TensorFlow、TensorFlow Lite、ONNX、DarkNet、PyTorch 等模型 转为 RKNN 模型,并支持 RKNN 模型导入导出,RKNN 模型能够在 Rockchip NPU 平 台上加载使用。 
量化功能: 支持将浮点模型量化为定点模型,目前支持的量化方法为非对称量化 ( asymm etric_quantized-8 及 asymmetric_quantized-16 ),并支持混合量化功能 。 
模型推理: 能够在 PC 【这个PC指的是在x86机器上linux系统,一般是虚拟系统】上模拟 NPU 运行 RKNN 模型并获取推理结果或将 RKNN 模型分发到 Rockchip NPU 设备上进行推理并获取推理结果。
性能评估和内存评估: 将 RKNN 模型分发到 Rockchip NPU 设备上运行,以评估模型在实 际设备上运行时的性能和内存使用信息。
量化精度分析: 该功能将给出模型量化前后每一层推理结果与浮点模型推理结果的余弦距离,以便于分析量化误差是如何出现的,为提高量化模型的精度提供思路。
模型加密功能:使用指定的加密等级将 RKNN 模型整体加密。因为 RKNN 模型的加密 是在 NPU 驱动中完成的,使用加密模型时,与普通 RKNN 模型一样加载即可,NPU 驱 会自动对其进行解密。

至于 RKNN-Toolkit2 的环境搭建以及具体使用会在之后进行讲解。

1.3.2 RKNN Toolkit lite2

      RKNN Toolkit lite2 相较于RKNN-Toolkit2 多 了 一 个 lite 后缀 , 可以简单的 理 解 为 RKNN-Toolkit2 的阉割版,只保留了推理的功能,可以帮助用户在开发板端进行模型的初步部署和测试。
      RKNN-Toolkit lite2 资料包中有三个目录,分别为 docs、examples 和 packages。如下图所示:

      docs 目录包含了 RKNN-Toolkit lite2 的使用文档。
      examples 目录包含了 RKNN-Toolkit lite2 的示例代码,由于 RKNN-Toolkit2 lite2 的使用较为 简单所以只提供了一个示例。
      packages 目录提供了 Python3.7 和 Python3.9 两个版本的安装包,需要注意的是这里的安装包架构为 aarch64,即需要安装在 RK3568 或者 RK3588 的 ubuntu 等发行版 Linux 操作系统上。       最后对 RKNN-Toolkit2 和 RKNN-Toolkit lite2 进行对比,对比如下:
(1)提供的语言接口都是 Python 语言。
(2)RKNN-Toolkit2 提供的安装包架构为 X86_64,运行在日常使用的 PC 电脑上,一般情况下安装在虚拟机 ubuntu 上,而 RKNN-Toolkit lite2 提供的安装包架构为 aarch64,运行在 RK3568 或者 RK3588 开发板上。
(3)RKNN-Toolkit2 可以进行模型转换、推理和性能评估,而 RKNN-Toolkit lite2 只保留了推理功能,用于模型的初步部署和调试。

RKNN Toolkit2与RKNN Toolkit lite2对比图
 1.3.3 RKNPU2 SDK


RKNPU2 SDK 的仓库链接为 https://github.com/rockchip-linux/rknpu2。
      RKNPU2 SDK 资料包中有 3 个目录,分别为 docs、examples 和 runtime。

      docs 目录包含了 RKNPU2 SDK 的使用文档,包括 RKNN 算子支持列表、快速入门指南以及使用指导手册。
       examples 目录包含了 RKNPU2 SDK 的一些示例代码和第三方库。通过这些示例代码,可以 帮助我们更快速的掌握 RKNPU2 所提供的一些 C API 接口和使用流程。
      runtime目录用于存放API运行时依赖的动态库和头文件,并且提供了一个名为rknn_server 的可执行程序,在后面 RKNN-Toolkit2 连板推理时会用到。
      RKNPU2 SDK 和 RKNN-Toolkit lite2 要实现的功能相同,都是在开发板部署 RKNN 模型,然 后进行推理,只是相较于 RKNN-Toolkit lite2 提供了更多的接口,调用起来较为复杂,但可以获得更好的运行效果。

RKNN Toolkit lite2 与RKNPU2 SDK 对比图

1.4 学习步骤整理

      无论使用 RKNPU2 SDK 提供的 C API 接口进行 RKNN 模型部署,还是使用 RKNN-Toolkit lite2 提供的 Python API 接口进行 RKNN 模型部署,在此之前,都需要先使用 RKNN Toolkit2 将网络模型转换为 RKNN 模型,或者对模型进行精度分析等操作,所以在 RKNPU2 开发阶段,首先要 学习 RKNN-Toolkit 2 的使用。
      RKNN-Toolkit 2 的学习分为以下几个步骤,搭建 RKNN-Toolkit 2 开发环境、学习 RKNN-Toolkit 2 提供的 API 接口并测试常用功能、对 RKNN 模型构建、精度分析、性能评估、内存评估以及RKNN 模型加载等重要接口进行单独学习。
      在 RKNPU 开发过程中,RKNN-Toolkit 2 就是用来构建并且评测 RKNN 模型的,得到符合我 们大致预期的 RKNN 模型之后就可以进行项目的部署了,模型部署分为 RKNN-Toolkit lite2 部署 和 RKNPU2 SDK 部署,由于 RKNN-Toolkit lite2 提供的接口与 RKNN-Toolkit 2 提供接口相似,且 数量较少,主要用于初期调试,所以我们首先会学习 RKNN-Toolkit lite2 部署,包括 RKNN-Toolkit lite2API 接口学习、RKNN-Toolkit lite2 使用环境搭建、RKNN-Toolkit lite2 例程测试。
      RKNN-Toolkit lite2 学习完成之后就到了最难的 RKNPU2 SDK 提供的 C API 接口学习了,C API 根据处理数据时的方法可以分为 0 拷贝 API 和通用 API,首先会根据例程学习两种 API 的使用框架、随后对瑞芯微提供的 C API 例程进行介绍,凭借这些例程可以帮助我们后期进行快速开 发,在例程的学习中会对出现的各个 C API 进行详细的学习。

这篇关于AI嵌入式RK3588人工智能开发 --- 【2】RKNPU软件推理框架的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1113361

相关文章

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

修改若依框架Token的过期时间问题

《修改若依框架Token的过期时间问题》本文介绍了如何修改若依框架中Token的过期时间,通过修改`application.yml`文件中的配置来实现,默认单位为分钟,希望此经验对大家有所帮助,也欢迎... 目录修改若依框架Token的过期时间修改Token的过期时间关闭Token的过期时js间总结修改若依

SpringBoot整合DeepSeek实现AI对话功能

《SpringBoot整合DeepSeek实现AI对话功能》本文介绍了如何在SpringBoot项目中整合DeepSeekAPI和本地私有化部署DeepSeekR1模型,通过SpringAI框架简化了... 目录Spring AI版本依赖整合DeepSeek API key整合本地化部署的DeepSeek

基于Python开发PPTX压缩工具

《基于Python开发PPTX压缩工具》在日常办公中,PPT文件往往因为图片过大而导致文件体积过大,不便于传输和存储,所以本文将使用Python开发一个PPTX压缩工具,需要的可以了解下... 目录引言全部代码环境准备代码结构代码实现运行结果引言在日常办公中,PPT文件往往因为图片过大而导致文件体积过大,

使用DeepSeek API 结合VSCode提升开发效率

《使用DeepSeekAPI结合VSCode提升开发效率》:本文主要介绍DeepSeekAPI与VisualStudioCode(VSCode)结合使用,以提升软件开发效率,具有一定的参考价值... 目录引言准备工作安装必要的 VSCode 扩展配置 DeepSeek API1. 创建 API 请求文件2.

PyCharm接入DeepSeek实现AI编程的操作流程

《PyCharm接入DeepSeek实现AI编程的操作流程》DeepSeek是一家专注于人工智能技术研发的公司,致力于开发高性能、低成本的AI模型,接下来,我们把DeepSeek接入到PyCharm中... 目录引言效果演示创建API key在PyCharm中下载Continue插件配置Continue引言

基于Python开发电脑定时关机工具

《基于Python开发电脑定时关机工具》这篇文章主要为大家详细介绍了如何基于Python开发一个电脑定时关机工具,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 简介2. 运行效果3. 相关源码1. 简介这个程序就像一个“忠实的管家”,帮你按时关掉电脑,而且全程不需要你多做

Java中的Opencv简介与开发环境部署方法

《Java中的Opencv简介与开发环境部署方法》OpenCV是一个开源的计算机视觉和图像处理库,提供了丰富的图像处理算法和工具,它支持多种图像处理和计算机视觉算法,可以用于物体识别与跟踪、图像分割与... 目录1.Opencv简介Opencv的应用2.Java使用OpenCV进行图像操作opencv安装j

Ubuntu系统怎么安装Warp? 新一代AI 终端神器安装使用方法

《Ubuntu系统怎么安装Warp?新一代AI终端神器安装使用方法》Warp是一款使用Rust开发的现代化AI终端工具,该怎么再Ubuntu系统中安装使用呢?下面我们就来看看详细教程... Warp Terminal 是一款使用 Rust 开发的现代化「AI 终端」工具。最初它只支持 MACOS,但在 20