开发者实战 | 用英特尔独立显卡训练AI智能收银机分类模型

本文主要是介绍开发者实战 | 用英特尔独立显卡训练AI智能收银机分类模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章作者:罗宏裕,张晶;

英特尔独立显卡技术指导:唐文凯

outside_default.png

本文将介绍在英特尔® 独立显卡上训练 AI 智能收银机分类模型的全流程,在下一篇中将介绍基于 OpenVINO™ 工具套件在 AIxBoard 上部署训练好的模型,快速实现 AI 智能收银机解决方案基于英特尔平台从模型训练到部署的端到端的关键技术验证。

在阅读本文前,请先在 Ubuntu 22.04 上安装英特尔锐炫 独立显卡驱动程序。

01

什么是 AI 智能收银机

 “看”一眼就能结账的 AI 智能收银机极大提升了零售店智能化水平和结算效率,推动无人结算零售店时代的到来。以食堂应用场景为例,就餐者自助取餐选菜后,直接将餐盘放在智能结算台上, AI 可以自动识别菜品的种类以及对应价格,然后自动计算出整餐金额,整个过程不到一秒钟。

dcd77e9ab96289597d42dca1114fb574.jpeg

本文将以 AI 食物图片分类为例,详细介绍在英特尔锐炫 独立显卡上训练 PyTorch 版 ResNet 50模型的整个过程。

02

英特尔锐炫 独立显卡简介

英特尔锐炫 显卡基于 Xe-HPG 微架构, Xe HPG GPU 中的每个 Xe 内核都配置了一组 256 位矢量引擎,旨在加速传统图形和计算工作负载,以及新的 1024 位矩阵引擎或 Xe 矩阵扩展,旨在加速人工智能工作负载。

01503456b6d528408498560ae1cf804b.jpeg

03

搭建基于英特尔锐炫 独立显卡

训练 PyTorch 模型的开发环境

3.1 环境要求

在 Ubuntu 22.04 上基于英特尔独立显卡训练 PyTorch 模型,需要依次安装:

1.英特尔独立显卡的驱动程序

2.英特尔® oneAPI Base Toolkit 2023.0

3.torch 1.13.0a0 和 torchvision 0.14.1a0

4.intel-extension-for-pytorch

3.2 安装英特尔独立显卡的驱动程序

请参考《在 Ubuntu 22.04上安装英特尔锐炫 独立显卡驱动程序》完成英特尔独立显卡的驱动安装。安装成功后,可以在 About 窗口 Graphics 一栏看到英特尔独立显卡的型号。

0f4a5eb03dc2282ea3c9baf31105a810.jpeg

3.3 下载并安装

英特尔® oneAPI Base Toolkit

第一步,通过下面的命令下载英特尔® oneAPI Base Toolkit并启动安装程序:

wget https://registrationcenter-download.intel.com/akdlm/irc_nas/19079/l_BaseKit_p_2023.0.0.25537.sh
sudo sh ./l_BaseKit_p_2023.0.0.25537.sh

向右滑动查看完整代码

5428af6737c4d3c881f0d1b7ca38db51.jpeg

第二步,保持默认选项,完成英特尔® oneAPIBase Toolkit安装

d90a60d98e29db37a2f1bcff0e3ea873.jpeg

3.4 安装

intel-extension-for-pytorch

使用命令安装torch、torchvision和intel-extension-for-pytorch:

python -m pip install torch==1.13.0a0 torchvision==0.14.1a0 intel_extension_for_pytorch==1.13.10+xpu -f https://developer.intel.com/ipex-whl-stable-xpu

向右滑动查看完整代码

cae68889de11c6ba640bd7a155c81787.jpeg

3.5 安装xpu-smi(可选)

英特尔® XPU 管理器是一个免费的开源工具,类似 nvidia-smi,用于监测英特尔独立显卡的运行信息(例如,温度、功耗、频率、显存容量等),也可以用于诊断独立显卡的问题。

安装包下载网站:

https://github.com/intel/xpumanager/releases 

4ca2cf60024f46553755bd930745bba3.jpeg

 然后,通过下面的命令进行安装

sudo apt install ./xpu-smi_1.2.5_20230313.033847.f458af77.u22.04_amd64.deb

向右滑动查看完整代码

b756b7b6a4518bde781806ae3aa4a510.jpeg

xpu-smi 的使用示例如下所示:

xpu-smi dump -d 0 -m 0,1,2,3,4,5,6

向右滑动查看完整代码

b1cc8a2676cf644da3f6bad9b86f5d95.jpeg

到此,在 Ubuntu 平台上用英特尔独立显卡训练 PyTorch 模型的开发环境配置完毕。

第一步,请通过以下命令激活oneAPI环境:

source /opt/intel/oneapi/setvars.sh

向右滑动查看完整代码

f561b9ffb954d0cbde1e1e912a274d9c.jpeg

第二步,请通过以下命令激活 DPC++ 编译器和 oneMKL 环境:

source /opt/intel/oneapi/compiler/latest/env/vars.sh
source /opt/intel/oneapi/mkl/latest/env/vars.sh

向右滑动查看完整代码

1d3ab5b3c6c8b13952f5793552844e0d.jpeg

第三步,

请下载 training_on_Intel_dGPU_bf16_ipex.py 并运行,该范例代码使用了 PyTorch 自带的 Food101 数据集和 resnet50 预训练模型参数。

下载地址:             

https://gitee.com/ppov-nuc/training_on_intel_GPU/blob/main/training_on_Intel_dGPU_bf16_ipex.py

核心代码片段:

model = torchvision.models.resnet50(weights='IMAGENET1K_V2',num_classes=101)
model = model.to('xpu')
criterion = torch.nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr = LR, momentum=0.9)
model.train()
model, optimizer = ipex.optimize(model, optimizer=optimizer, dtype=torch.bfloat16)
# 训练循环
for epoch in range(epochs):tloss,vloss = 0.0, 0.0top1,top5 = 0.0, 0.0pbar = tqdm(enumerate(train_loader),total=len(train_loader), bar_format=TQDM_BAR_FORMAT)for i, (data, target) in pbar:model.train()data = data.to('xpu')target = target.to('xpu')with torch.xpu.amp.autocast():output = model(data)loss = criterion(output, target)loss.backward()optimizer.step()optimizer.zero_grad()tloss = (tloss*i + loss.item()) / (i+1)if i == len(pbar) - 1:pred,targets,vloss = [], [], 0n = len(val_loader)# 评估训练精度model.eval()with torch.xpu.amp.autocast():for d, (images, labels) in enumerate(val_loader):images = images.to('xpu') labels = labels.to('xpu')y = model(images)pred.append(y.argsort(1, descending=True)[:, :5])targets.append(labels) vloss += criterion(y, labels).item()

向右滑动查看完整代码

运行结果,如下图所示:

a47d896d317fbd3a39ea516d92f324e2.jpeg

05

总结

本文详细介绍了在 Ubuntu 22.04下使用英特尔独立显卡进行 PyTorch 模型训练,此外,基于单卡英特尔 A750 和 Ubuntu 22.04 的环境,笔者还分别测试了基于 Food101 数据集的 Resnet50 模型和 Resnet101 模型各自的 BF16 格式和 FP32 格式的最大 batch_size 及其训练时的最大显存使用率,方便读者对 batch_size 进行修改,具体结果如下表所示。

_

BF16

FP32

Resnet50

batch_size:128

显存使用率:92.09%

batch_size:64

显存使用率:90.41%

Resnet101

batch_size:96

显存使用率:98.95%

batch_size:48

显存使用率:96.77%

--END--

你也许想了解(点击蓝字查看)⬇️➡️ 以AI作画,祝她节日快乐;简单三步,OpenVINO™ 助你轻松体验AIGC
➡️ 还不知道如何用OpenVINO™作画?点击了解教程。➡️ 如何给开源项目做贡献? | 开发者节日福利➡️ 几行代码轻松实现对于PaddleOCR的实时推理,快来get!➡️ 使用OpenVINO 在“端—边—云”快速实现高性能人工智能推理➡️ 图片提取文字很神奇?试试三步实现OCR!➡️【Notebook系列第六期】基于Pytorch预训练模型,实现语义分割任务➡️使用OpenVINO™ 预处理API进一步提升YOLOv5推理性能
扫描下方二维码立即体验 
OpenVINO™ 工具套件 2022.3

点击 阅读原文 立即体验OpenVINO 2022.3

f27454eda38fe621c4e25c463e23d7dc.png

文章这么精彩,你有没有“在看”?

这篇关于开发者实战 | 用英特尔独立显卡训练AI智能收银机分类模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/542160

相关文章

C语言小项目实战之通讯录功能

《C语言小项目实战之通讯录功能》:本文主要介绍如何设计和实现一个简单的通讯录管理系统,包括联系人信息的存储、增加、删除、查找、修改和排序等功能,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录功能介绍:添加联系人模块显示联系人模块删除联系人模块查找联系人模块修改联系人模块排序联系人模块源代码如下

PyCharm接入DeepSeek实现AI编程的操作流程

《PyCharm接入DeepSeek实现AI编程的操作流程》DeepSeek是一家专注于人工智能技术研发的公司,致力于开发高性能、低成本的AI模型,接下来,我们把DeepSeek接入到PyCharm中... 目录引言效果演示创建API key在PyCharm中下载Continue插件配置Continue引言

Golang操作DuckDB实战案例分享

《Golang操作DuckDB实战案例分享》DuckDB是一个嵌入式SQL数据库引擎,它与众所周知的SQLite非常相似,但它是为olap风格的工作负载设计的,DuckDB支持各种数据类型和SQL特性... 目录DuckDB的主要优点环境准备初始化表和数据查询单行或多行错误处理和事务完整代码最后总结Duck

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe

Ubuntu系统怎么安装Warp? 新一代AI 终端神器安装使用方法

《Ubuntu系统怎么安装Warp?新一代AI终端神器安装使用方法》Warp是一款使用Rust开发的现代化AI终端工具,该怎么再Ubuntu系统中安装使用呢?下面我们就来看看详细教程... Warp Terminal 是一款使用 Rust 开发的现代化「AI 终端」工具。最初它只支持 MACOS,但在 20

Python中的随机森林算法与实战

《Python中的随机森林算法与实战》本文详细介绍了随机森林算法,包括其原理、实现步骤、分类和回归案例,并讨论了其优点和缺点,通过面向对象编程实现了一个简单的随机森林模型,并应用于鸢尾花分类和波士顿房... 目录1、随机森林算法概述2、随机森林的原理3、实现步骤4、分类案例:使用随机森林预测鸢尾花品种4.1

Golang使用minio替代文件系统的实战教程

《Golang使用minio替代文件系统的实战教程》本文讨论项目开发中直接文件系统的限制或不足,接着介绍Minio对象存储的优势,同时给出Golang的实际示例代码,包括初始化客户端、读取minio对... 目录文件系统 vs Minio文件系统不足:对象存储:miniogolang连接Minio配置Min

Node.js 中 http 模块的深度剖析与实战应用小结

《Node.js中http模块的深度剖析与实战应用小结》本文详细介绍了Node.js中的http模块,从创建HTTP服务器、处理请求与响应,到获取请求参数,每个环节都通过代码示例进行解析,旨在帮... 目录Node.js 中 http 模块的深度剖析与实战应用一、引言二、创建 HTTP 服务器:基石搭建(一

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库