三、NVIDIA Jetson Orin开发板-GPU加速

2024-05-25 07:20

本文主要是介绍三、NVIDIA Jetson Orin开发板-GPU加速,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、NVIDIA Jetson Orin开发板的硬件情况

df -h#查看操作系统情况
Filesystem      Size  Used Avail Use% Mounted on
**/dev/nvme0n1p1**  234G   17G  208G   8% /
none            7.4G     0  7.4G   0% /dev
tmpfs           7.6G     0  7.6G   0% /dev/shm
tmpfs           1.6G   19M  1.5G   2% /run
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           7.6G     0  7.6G   0% /sys/fs/cgroup
tmpfs           1.6G   28K  1.6G   1% /run/user/1000

Ubuntu操作系统安装在一个NVMe固态硬盘(/dev/nvme0n1p1)上

free -h#查看CPU内存情况
              total        used        free      shared  buff/cache   available
Mem:           15G         2G        11G        1.5G        2G         11G
Swap:          2G         0M         2G

CPU的内存情况

sudo pip3 install -U jetson-stats#安装
sudo systemctl restart jtop.service#启动
sudo jtop#q退出

显示GPU运行情况。

二、在NVIDIA Jetson Orin开发板上的PyCharm中运行代码并利用GPU进行加速

  1. cuda库和驱动程序 :
    jetpack(NVIDIA JetPack 是专为 NVIDIA Jetson 系列开发板(如 Jetson Nano、Jetson TX2、Jetson Xavier NX 和 Jetson AGX Orin 等)设计的综合性软件开发包。JetPack 提供了一整套工具和库,用于加速 AI 和边缘计算应用的开发。)
  2. 支持GPU加速的库:pytorch

1.1 安装命令

sudo apt update
sudo apt install nvidia-jetpack

1.2 查看cuda是否安装成功

ls /usr/local/cuda#显示cuda目录

1.3 配置环境变量

echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

1.4 检验cuda版本,显示版本信息即安装成功

nvcc --version

2、pytorch安装
2.1、下载预编译轮子文件

https://forums.developer.nvidia.com/t/pytorch-for-jetson/72048
确认适合Python3.8和cuda11.4的文件
wget https://developer.download.nvidia.cn/compute/redist/jp/v44/pytorch/torch-1.10.0-cp38-cp38-linux_aarch64.whl
wget https://developer.download.nvidia.cn/compute/redist/jp/v44/pytorch/torchvision-0.11.1-cp38-cp38-linux_aarch64.whl

2.2、安装轮子文件

pip install numpy  # 安装 numpy
pip install torch-1.10.0-cp38-cp38-linux_aarch64.whl
#pip install torchvision-0.11.1-cp38-cp38-linux_aarch64.whl

2.3、安装依赖库OpenBLAS(它是一个高性能的线性代数库,pytorch依赖他进行数值计算)

sudo apt-get install libopenblas-dev

2.4、测试安装情况

import torch
print("CUDA available:", torch.cuda.is_available())
if torch.cuda.is_available():print("CUDA device name:", torch.cuda.get_device_name(0))

三、设置pycharm项目界面开机自启动

1、确定项目结构和入口脚本
/home/makerobo/PycharmProjects/SVDD-Python-master/

├── pyqt_test/
│   ├── boundary.png
│   ├── distance.png
│   └── main.py
├── SECURITY.md
├── src/
│   ├── BaseSVDD.py
│   └── __pycache__/

2、创建启动脚本‘run.sh’
在项目目录 /home/makerobo/PycharmProjects/SVDD-Python-master/ 中创建一个名为 run.sh 的启动脚本:

#!/bin/bash
export DISPLAY=:0  # 确保图形界面可用
cd /home/makerobo/PycharmProjects/SVDD-Python-master/  # 进入项目目录# 激活虚拟环境,我的虚拟环境为pytorch_svdd
source /home/makerobo/anaconda3/bin/activate pytorch_svdd# 运行Python脚本
python pyqt_test/main.py

确保‘run.sh’脚本有可执行权限:

chmod +x /home/makerobo/PycharmProjects/SVDD-Python-master/run.sh

3、创建‘systemd’服务单元文件
在‘/etc/systemd/system/’下创建‘SVDD-Python-master.service’服务文件

sudo vi /etc/systemd/system/SVDD-Python-master.service
[Unit]
Description=My PyCharm Python Project
After=network.target[Service]
ExecStart=/home/makerobo/PycharmProjects/SVDD-Python-master/run.sh
WorkingDirectory=/home/makerobo/PycharmProjects/SVDD-Python-master
Environment="DISPLAY=:0"#指定显示环境变量,用于 GUI 应用程序,确保它们知道在哪里绘制窗口
Environment="XAUTHORITY=/home/makerobo/.Xauthority"#用于身份验证,允许程序在显示器上绘制窗口
Environment="CONDA_EXE=/home/makerobo/anaconda3/bin/conda"#指定 conda 可执行文件的位置
Environment="CONDA_PREFIX=/home/makerobo/anaconda3/envs/pytorch_svdd"#指定激活的 conda 环境路径
Environment="CONDA_PYTHON_EXE=/home/makerobo/anaconda3/bin/python"#指定 Python 可执行文件的位置
Environment="CONDA_DEFAULT_ENV=pytorch_svdd"#指定默认的 conda 环境
Environment="PATH=/home/makerobo/anaconda3/envs/pytorch_svdd/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"#更新 PATH 变量,使其包含 conda 环境中的可执行文件路径
StandardOutput=inherit
StandardError=inherit
Restart=always
User=makerobo[Install]
WantedBy=multi-user.target

4、设置文件权限和所有权
确保项目目录及其文件的所有权和权限正确

sudo chown -R makerobo:makerobo /home/makerobo/PycharmProjects/SVDD-Python-master/
sudo chmod -R +x /home/makerobo/PycharmProjects/SVDD-Python-master/

5、启用和启动服务
重新加载‘system’配置:

sudo systemctl daemon-reload

启用服务,使其在开机时自动运行

sudo systemctl enable SVDD-Python-master.service

启动服务

sudo systemctl start SVDD-Python-master.service

6、验证服务是否正常运行

sudo systemctl status SVDD-Python-master.service

这篇关于三、NVIDIA Jetson Orin开发板-GPU加速的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1000841

相关文章

Python中Tensorflow无法调用GPU问题的解决方法

《Python中Tensorflow无法调用GPU问题的解决方法》文章详解如何解决TensorFlow在Windows无法识别GPU的问题,需降级至2.10版本,安装匹配CUDA11.2和cuDNN... 当用以下代码查看GPU数量时,gpuspython返回的是一个空列表,说明tensorflow没有找到

Python并行处理实战之如何使用ProcessPoolExecutor加速计算

《Python并行处理实战之如何使用ProcessPoolExecutor加速计算》Python提供了多种并行处理的方式,其中concurrent.futures模块的ProcessPoolExecu... 目录简介完整代码示例代码解释1. 导入必要的模块2. 定义处理函数3. 主函数4. 生成数字列表5.

conda安装GPU版pytorch默认却是cpu版本

《conda安装GPU版pytorch默认却是cpu版本》本文主要介绍了遇到Conda安装PyTorchGPU版本却默认安装CPU的问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的... 目录一、问题描述二、网上解决方案罗列【此节为反面方案罗列!!!】三、发现的根本原因[独家]3.1 p

如何在Ubuntu上安装NVIDIA显卡驱动? Ubuntu安装英伟达显卡驱动教程

《如何在Ubuntu上安装NVIDIA显卡驱动?Ubuntu安装英伟达显卡驱动教程》Windows系统不同,Linux系统通常不会自动安装专有显卡驱动,今天我们就来看看Ubuntu系统安装英伟达显卡... 对于使用NVIDIA显卡的Ubuntu用户来说,正确安装显卡驱动是获得最佳图形性能的关键。与Windo

Gradle在国内配置镜像加速的实现步骤

《Gradle在国内配置镜像加速的实现步骤》在国内使用Gradle构建项目时,最大的痛点就是依赖下载贼慢,甚至卡死,下面教你如何配置国内镜像加速Gradle下载依赖,主要是通过改写repositori... 目录引言一、修改 build.gradle 或 settings.gradle 的 reposito

判断PyTorch是GPU版还是CPU版的方法小结

《判断PyTorch是GPU版还是CPU版的方法小结》PyTorch作为当前最流行的深度学习框架之一,支持在CPU和GPU(NVIDIACUDA)上运行,所以对于深度学习开发者来说,正确识别PyTor... 目录前言为什么需要区分GPU和CPU版本?性能差异硬件要求如何检查PyTorch版本?方法1:使用命

QT移植到RK3568开发板的方法步骤

《QT移植到RK3568开发板的方法步骤》本文主要介绍了QT移植到RK3568开发板的方法步骤,文中通过图文示例介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录前言一、获取SDK1. 安装依赖2. 获取SDK资源包3. SDK工程目录介绍4. 获取补丁包二

Python使用国内镜像加速pip安装的方法讲解

《Python使用国内镜像加速pip安装的方法讲解》在Python开发中,pip是一个非常重要的工具,用于安装和管理Python的第三方库,然而,在国内使用pip安装依赖时,往往会因为网络问题而导致速... 目录一、pip 工具简介1. 什么是 pip?2. 什么是 -i 参数?二、国内镜像源的选择三、如何

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

如何用GPU算力卡P100玩黑神话悟空?

精力有限,只记录关键信息,希望未来能够有助于其他人。 文章目录 综述背景评估游戏性能需求显卡需求CPU和内存系统需求主机需求显式需求 实操硬件安装安装操作系统Win11安装驱动修改注册表选择程序使用什么GPU 安装黑神话悟空其他 综述 用P100 + PCIe Gen3.0 + Dell720服务器(32C64G),运行黑神话悟空画质中等流畅运行。 背景 假设有一张P100-