RK3568笔记三十二:PaddleSeg训练部署

2024-06-13 12:28

本文主要是介绍RK3568笔记三十二:PaddleSeg训练部署,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、环境

1、Autodl配置

PyTorch 1.7.0Python 3.8(ubuntu18.04)Cuda 11.0

2、所需环境需求

- OS: 64-bit
- Python 3(3.6/3.7/3.8/3.9/3.10),64-bit version
- pip/pip3(9.0.1+),64-bit version
- CUDA >= 10.2
- cuDNN >= 7.6
- PaddlePaddle (the version >= 2.4)

3、开发板:ATK-DLRK3568

二、搭建环境

1、创建环境

conda create -n paddleseg_env python=3.8

2、激活

source activate
conda activate paddleseg_env

3、安装PaddlePaddle

python -m pip install paddlepaddle-gpu==2.4.2.post112 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple

验证

>>> import paddle
>>> paddle.utils.run_check()# If the following prompt appears on the command line, the PaddlePaddle installation is successful.
# PaddlePaddle is installed successfully! Let's start deep learning with PaddlePaddle now.# Confirm PaddlePaddle version
>>> print(paddle.__version__)

在这里插入图片描述

4、安装PaddleSeg

1) 下载地址

PaddlePaddle/PaddleSeg at release/2.8 (github.com)

2)安装

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simplepip install -v -e .

5、测试

sh tests/install/check_predict.sh

在这里插入图片描述

三、训练

1、下载数据集

开源数据集:https://paddleseg.bj.bcebos.com/dataset/optic_disc_seg.zip

下载后把数据放到 data目录下,没有目录新创建一个

2、train

export CUDA_VISIBLE_DEVICES=0 # Linux上设置1张可用的卡python tools/train.py --config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml --do_eval --use_vdl --save_interval 500 --save_dir output

上述训练命令解释:

  • --config指定配置文件。
  • --save_interval指定每训练特定轮数后,就进行一次模型保存或者评估(如果开启模型评估)。
  • --do_eval开启模型评估。具体而言,在训练save_interval指定的轮数后,会进行模型评估。
  • --use_vdl开启写入VisualDL日志信息,用于VisualDL可视化训练过程。
  • --save_dir指定模型和visualdl日志文件的保存根路径。

开始训练

在这里插入图片描述

训练的模型权重保存在output目录下,如下所示。总共训练1000轮,每500轮评估一次并保存模型信息,所以有iter_500iter_1000文件夹。评估精度最高的模型权重,保存在best_model文件夹。后续模型的评估、测试和导出,都是使用保存在best_model文件夹下精度最高的模型权重。

output├── iter_500          #表示在500步保存一次模型├── model.pdparams  #模型参数└── model.pdopt     #训练阶段的优化器参数├── iter_1000         #表示在1000步保存一次模型├── model.pdparams  #模型参数└── model.pdopt     #训练阶段的优化器参数└── best_model        #精度最高的模型权重└── model.pdparams  

train.py脚本输入参数的详细说明如下。

参数名用途是否必选项默认值
iters训练迭代次数配置文件中指定值
batch_size单卡batch size配置文件中指定值
learning_rate初始学习率配置文件中指定值
config配置文件-
save_dir模型和visualdl日志文件的保存根路径output
num_workers用于异步读取数据的进程数量, 大于等于1时开启子进程读取数据0
use_vdl是否开启visualdl记录训练数据
save_interval模型保存的间隔步数1000
do_eval是否在保存模型时启动评估, 启动时将会根据mIoU保存最佳模型至best_model
log_iters打印日志的间隔步数10
resume_model恢复训练模型路径,如:output/iter_1000None
keep_checkpoint_max最新模型保存个数5

3、模型评估

python tools/val.py \--config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml \--model_path output/iter_1000/model.pdparams

在这里插入图片描述

4、模型预测

python tools/predict.py \--config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml \--model_path output/iter_1000/model.pdparams \--image_path data/optic_disc_seg/JPEGImages/H0003.jpg \--save_dir output/result

在这里插入图片描述

5、导出预测模型

PaddleSeg训练好模型J是动态的,将模型导出为预测模型、使用预测库进行部署,可以实现更快的推理速度。

将训练出来的动态图模型转化成静态图预测模型

python tools/export.py \--config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml \--model_path output/best_model/model.pdparams \--save_dir output/infer_model

在这里插入图片描述

四、模型导出

1、导出ONNX模型

pip install paddle2onnx
pip install tensorrt
pip install pycuda
pip install onnx
pip install protobuf==3.20.0
python deploy/python/infer_onnx_trt.py \--config <path to config> \--model_path <path to model> \--width <img_width> \--height <img_height> # 注意使用是转换后的静态图预测模型  
python deploy/python/infer_onnx_trt.py \--config configs/quick_start/pp_liteseg_optic_disc_512x512_1k.yml \--model_path output/infer_model/model.pdparams \--width 512 \--height 512 

在这里插入图片描述

虽然报错,但导出成功

2、RKNN导出

到处RKNN需要rknn环境,自行搭建

 python convert.py ../model/pp_liteseg_cityscapes.onnx rk3568

在这里插入图片描述

这篇关于RK3568笔记三十二:PaddleSeg训练部署的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1057301

相关文章

Docker部署Jenkins持续集成(CI)工具的实现

《Docker部署Jenkins持续集成(CI)工具的实现》Jenkins是一个流行的开源自动化工具,广泛应用于持续集成(CI)和持续交付(CD)的环境中,本文介绍了使用Docker部署Jenkins... 目录前言一、准备工作二、设置变量和目录结构三、配置 docker 权限和网络四、启动 Jenkins

SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程

《SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程》本文详细介绍了如何在虚拟机和宝塔面板中安装RabbitMQ,并使用Java代码实现消息的发送和接收,通过异步通讯,可以优化... 目录一、RabbitMQ安装二、启动RabbitMQ三、javascript编写Java代码1、引入

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

nginx部署https网站的实现步骤(亲测)

《nginx部署https网站的实现步骤(亲测)》本文详细介绍了使用Nginx在保持与http服务兼容的情况下部署HTTPS,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值... 目录步骤 1:安装 Nginx步骤 2:获取 SSL 证书步骤 3:手动配置 Nginx步骤 4:测

Tomcat高效部署与性能优化方式

《Tomcat高效部署与性能优化方式》本文介绍了如何高效部署Tomcat并进行性能优化,以确保Web应用的稳定运行和高效响应,高效部署包括环境准备、安装Tomcat、配置Tomcat、部署应用和启动T... 目录Tomcat高效部署与性能优化一、引言二、Tomcat高效部署三、Tomcat性能优化总结Tom