AI嵌入式K210项目(29)-模型加载

2024-02-19 21:20

本文主要是介绍AI嵌入式K210项目(29)-模型加载,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 一、下载部署包
  • 二、C++部署
  • 三、搭建文件传输环境
  • 四、文件传输
  • 五、调试
  • 六、MicroPython部署
  • 总结


前言

上一章节介绍了如何进行在线模型训练,生成部署包后,本章介绍加载模型;

一、下载部署包

训练结束后,在训练任务条目中选择下载按钮;
在这里插入图片描述
下载得到部署资源包。
部署资源包内包含:测试结果图片、生成的kmodel、部署配置文件deploy_config.json、部署资源压缩包。
部署资源压缩包解压后,参照README.md可以实现上板部署过程;
在这里插入图片描述
C++部署资源压缩包deployment_source.zip解压后结构如下:
在这里插入图片描述
MicroPython部署资源压缩包mp_deployment_source.zip解压后结构如下:
在这里插入图片描述

二、C++部署

若使用MicroPython的部署包请参见下一章节。
注意:训练环境中nncase和nncase-kpu的版本和SDK的版本要对应, nncase和nncase-kpu版本为2.4.0, SDK版本为1.1。
上板部署过程分为以下几个步骤:
K230 SDK需要在Linux环境下编译,推荐使用Ubuntu Liunx 20.04。 使用docker编译环境,下载k230_sdk

# 下载docker编译镜像
docker pull ghcr.io/kendryte/k230_sdk
# 可以使用以下命令确认docker镜像拉取成功
docker images | grep k230_sdk
# 下载sdk
git clone -b v1.1 --single-branch https://github.com/kendryte/k230_sdk.git
cd k230_sdk
# 下载工具链, make prepare_sourcecode 会自动下载Linux和RT-Smart toolchain,
buildroot package, AI package等. 请确保该命令执行成功并没有Error产生, 下载时间和速度
以实际网速为准。
make prepare_sourcecode
# 创建docker容器, $(pwd):$(pwd)表示系统当前目录映射到docker容器内部的相同目录下, 将系
统下的工具链目录映射到docker容器内部的/opt/toolchain目录下
docker run -u root -it -v $(pwd):$(pwd) -v $(pwd)/toolchain:/opt/toolchain -
w $(pwd) ghcr.io/kendryte/k230_sdk /bin/bash

这里使用的CANMV-K230开发板,还有一种K230-EVB开发板
在这里插入图片描述

# 在docker中编译镜像, 请耐心等待完成, 不同类型开发板编译命令不同
# 如果是CANMV-K230开发板
make CONF=k230_canmv_defconfig
# 如果是K230-EVB开发板
make CONF=k230_evb_defconfig

SD卡镜像也可在嘉楠开发者社区资料下载板块找到。
CANMV-K230开发板,编译结束后在output/k230_canmv_defconfig/images目录下可以找到编译好的镜像文件:

k230_canmv_defconfig/images
├── big-core
├── little-core
├── sysimage-sdcard.img # SD卡镜像
└──
sysimage-sdcard.img.gz # SD卡镜像压缩包

CANMV-K230开发板支持SD卡镜像启动
烧录TF卡
详细烧录步骤参考K230_SDK_使用说明。
Linux: 如使用Linux烧录TF卡,需要先确认SD卡在系统中的名称/dev/sdx, 并替换如下命令中的/dev/sdx

sudo dd if=sysimage-sdcard.img of=/dev/sdx bs=1M oflag=sync

Windows: 如使用Windows烧录, 建议使用the balena Etcher工具。将生成的sysimage-sdcard.img下载到本地,使用烧录工具the balena Etcher进行烧录。
在这里插入图片描述
其它更详细的烧录方法,请参考K230_SDK_使用说明。
确认启动开关选择在SD卡启动模式下,将烧录完成的TF卡插入进开板板卡槽中,然后将电源开关K1拔到ON位置,系统可上电。如果您有接好串口,可在串口中看到启动日志输出。 系统上电后,默认会有二个串口设备,可分别访问小核Linux和大核RTSmart 大核RTSmart系统中会开机会自动启动一个应用程序,可按q键退出至命令提示符终端;

三、搭建文件传输环境

windows系统
(1) Tftpd64安装,在https://bitbucket.org/phjounin/tftpd64/downloads/下载。
(2) MobaXterm安装:在https://mobaxterm.mobatek.net/download.html下载安装。
(2)配置PC网络:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
开发板网络配置:
开发板上电,电源线、网线、 COM口连接线配置见文档: K230_SDK_使用说明。打开MobaXterm,通过两路COM串口连接开发板, COM编号不固定,较小为小核串口,较大为大核串口。
在这里插入图片描述
小核进入后回车,进入如下界面,使用root登录:
在这里插入图片描述
大核进入后回车,进入如下界面
在这里插入图片描述
在小核配置网络
在这里插入图片描述
大小核共享存储区域: /sharefs
在这里插入图片描述
当要从Tftpd64配置的文件中拷贝数据时,在小核界面使用如下命令:
#192.168.1.2 为PC的局域网IP

# 192.168.1.2 为PC的局域网IP
tftp -g -r your_file_name 192.168.1.2

当将开发板文件拷贝到PC端Tftpd64配置的文件夹下时,在小核使用如下命令:

# 192.168.1.2 为PC的局域网IP
tftp -p -r your_file_name 192.168.1.2

在Linux系统中, PC正常连接网络,开发板可以通过网线连接PC所在网关下其他网口,通过scp命令实现文件传输。
开发板上电,进入大小核COM界面,在小核执行scp传输命令:

# 从PC拷贝文件至开发板
scp 用户名@域名或IP:文件所在目录 开发板目的目录
# 从开发板拷贝文件至PC
scp 开发板待拷贝目录 用户名@域名或IP:PC目的目录

将部署资源压缩包deployment_source.zip解压,阅读README.md,将子文件夹example_code_k230拷贝到SDK文件目录下的src/big/nncase子目录下,授予权限,编译elf可执行文件。编译K230-EVB开发板的可执行文件

chmod +x build_app.sh
./build_app.sh evb

编译结束后在example_code_k230文件夹下的k230_bin中可以获得编译完成的main.elf文件。
编译CANMV-K230开发板的可执行文件:

chmod +x build_app.sh
./build_app.sh

四、文件传输

在小核/sharefs下新建一子目录test_deploy

cd /sharefs
mkdir test_deploy
cd test_deploy

通过tftp将部署资源包中的kmodel文件、 deploy_config.json文件、 main.elf文件和待测试图片文件拷贝到小核/sharefs/test_deploy目录下

五、调试

上板调试命令

# 进入大核对应目录下, 执行main.elf deploy_config.json 图片/None debug_mode
# deploy_config.json是部署配置文件
# 图片/None 如果是图片路径, 则执行静态图推理, 如果调用摄像头进行视频流推理, 此参数为None
# debug_mode: 调试模式, 有0、 1、 2三个选项; 分别对应不调试、 简单调试、 详细调试

在大核中进入/sharefs/test_deploy目录下,执行main.elf可执行文件。

# 静态图推理调试
main.elf deploy_config.json test.jpg 1
# 视频流推理调试
main.elf deploy_config.json None 1

六、MicroPython部署

注意:训练环境中nncase和nncase-kpu的版本和SDK的版本要对应, nncase和nncase-kpu版本为2.4.0, SDK版本为1.1。
上板部署过程分为以下几个步骤:
CanMV 的目的是让 AIOT 编程更简单, 基于 Micropython 语法, 运行在Canaan强大的嵌入式AI SOC系
列上。目前它在K230上运行。使用docker编译环境,下载k230_CanMV。

git clone https://github.com/kendryte/k230_canmv.git
cd k230_canmv
make prepare_sourcecode
# 生成docker镜像(第一次编译需要, 已经生成docker镜像后跳过此步骤, 可选)
docker build -f k230_sdk/tools/docker/Dockerfile -t k230_docker
k230_sdk/tools/docker
# 启动docker环境(可选)
docker run -u root -it -v $(pwd):$(pwd) -v
$(pwd)/k230_sdk/toolchain:/opt/toolchain -w $(pwd) k230_docker /bin/bash
# 默认使用canmv板卡, 如果需要使用其他板卡, 请使用 make CONF=k230_xx_defconfig, 支持的
板卡在configs目录下
make

编译完成后会在 output/k230_xx_defconfig/images 目录下生成 sysimage-sdcard.img 镜像。
按下图步骤,建立连接。点击如下按钮:
在这里插入图片描述
选择除大小核串口外的第三个串口:
在这里插入图片描述
连接建立后,选择文件->打开文件,选择解压的部署包mp_deployment_source中的##_image.py和##__video.py,编辑更改kmodel和deploy_config.json文件的拷贝路径。
在这里插入图片描述
点击左下角的绿色三角按钮运行,点击串行终端查看命令行输出。


总结

K210的介绍就到这里,接下来给大家介绍最新的K230芯片开发板,如需购买可以到pdd和淘宝搜索维脑科技,购买CANMV-K230开发吧;在这里插入图片描述

这篇关于AI嵌入式K210项目(29)-模型加载的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/726014

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

这15个Vue指令,让你的项目开发爽到爆

1. V-Hotkey 仓库地址: github.com/Dafrok/v-ho… Demo: 戳这里 https://dafrok.github.io/v-hotkey 安装: npm install --save v-hotkey 这个指令可以给组件绑定一个或多个快捷键。你想要通过按下 Escape 键后隐藏某个组件,按住 Control 和回车键再显示它吗?小菜一碟: <template

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

如何用Docker运行Django项目

本章教程,介绍如何用Docker创建一个Django,并运行能够访问。 一、拉取镜像 这里我们使用python3.11版本的docker镜像 docker pull python:3.11 二、运行容器 这里我们将容器内部的8080端口,映射到宿主机的80端口上。 docker run -itd --name python311 -p

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

嵌入式QT开发:构建高效智能的嵌入式系统

摘要: 本文深入探讨了嵌入式 QT 相关的各个方面。从 QT 框架的基础架构和核心概念出发,详细阐述了其在嵌入式环境中的优势与特点。文中分析了嵌入式 QT 的开发环境搭建过程,包括交叉编译工具链的配置等关键步骤。进一步探讨了嵌入式 QT 的界面设计与开发,涵盖了从基本控件的使用到复杂界面布局的构建。同时也深入研究了信号与槽机制在嵌入式系统中的应用,以及嵌入式 QT 与硬件设备的交互,包括输入输出设

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了