【Unity+AI】SentisAI大模型植入Unity

2023-12-25 19:44
文章标签 ai 模型 unity 植入 sentisai

本文主要是介绍【Unity+AI】SentisAI大模型植入Unity,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

相关教程

把AI模型放入Unity-手写数字识别【UnitySentis入门-1】_哔哩哔哩_bilibili

教程转载自:AI Tools for Game Dev 游戏开发人工智能工具/UnitySentis/01-Unity Sentis 入门.md · chutianshu/AwesomeUnityTutorial - Gitee.comicon-default.png?t=N7T8https://gitee.com/chutianshu1981/AwesomeUnityTutorial/blob/main/AI%20Tools%20for%20Game%20Dev%20%E6%B8%B8%E6%88%8F%E5%BC%80%E5%8F%91%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%B7%A5%E5%85%B7/UnitySentis/01-Unity%20Sentis%20%E5%85%A5%E9%97%A8.md

 Unity Sentis 入门

1. Unity Sentis 简介

1.1 概念

Sentis 是一个用于人工智能模型的本地推理引擎(神经网络推理库),它利用终端用户设备上的计算,而不是云服务器。它可以在任何可以部署 Unity 运行时的地方运行。

可以使用 Sentis 将训练有素的神经网络模型导入 Unity,然后在 Unity 支持的任何平台和编辑器中本地实时运行这些模型。您可以选择在 GPU 或 CPU 上运行模型。

它取代了 Barracuda(Unity 上一个本地神经网络库),解决了我们在 Barracuda 处于早期原型阶段时收到的许多反馈。最重要的是,Sentis 可以以游戏速度运行许多神经网络。可用于无限制的本地推理。

1.2 功能

Sentis 有哪些功能?

Sentis 允许您将 ONNX 格式 的人工智能/ML 神经网络模型(来自 TensorFlow、PyTorch 和其他人工智能中心)导入 Unity 编辑器,然后在所有 Unity 支持平台上的用户设备上实时优化和运行推理。

Sentis 支持 opset 版本介于 7 和 15 之间的大多数 ONNX 格式模型。有关详细信息,请参阅支持的 ONNX 操作符。

您可以在 Unity 运行时(用于游戏)或 Unity 编辑器(用于游戏创建)中完成这项工作,而无需使用昂贵的 GPU 云服务器。Sentis 速度快,避免了云计算成本,并允许进行私有神经网络推断。最终,Sentis 将使 Unity 开发人员能够利用人工智能领域令人难以置信的创新,而这在以前是不可能实现的。

可能的使用案例有很多,下面列出来一些经过 Unity 开发者已经实现的,希望 Sentis 的用户可以发挥出更多的创意 :

  1. 图像升级:放大低分辨率图像、模型、纹理等。
  2. 风格转换:将场景的外观或图像效果转换为新的风格
  3. 非游戏角色(NPC):自动生成人物对话
  4. 语音识别(NLP):解释现场语音 5.
  5. 人体/物体检测: 使用摄像头检测物体
  6. 深度估计: 使用摄像头检测深度
  7. 图像、视频和 3D 模型分类:检测屏幕上的物体
  8. 手写分类:检测手写字母、符号或数字
  9. 创造独一无二的玩家体验:生成无限独特的游戏场景
  10. 动画: 绑定自动生成的姿势
  11. 模拟助手: 用神经网络逼近复杂功能(Approximate a complicated function )?,驱动游戏逻辑
  12. 时间序列:异常检测、预测/预报

2. Sentis Quick Start 快速上手

2.1 安装 Sentis

  1. 从 Unity Hub 下载 Unity 2023.2。
    最新的Sentis 1.3.0 适用于 2023.2 以上版本,而之前的 Sentis 版本适用于 Unity 2021.3 以上版本。
  2. 创建新的 Unity 项目或打开现有项目。
  3. 进入Window > Package Manager,然后点击 + 图标,选择 "Add package by name… "并输入 "com.unity.sentis"按添加按钮安装软件包

com.unity.sentis

我们可以导入附带的Samples示例项目

2.2 使用 Sentis

使用 Sentis 在 Unity 中运行神经网络模型,通常需要如下步骤:

  1. 使用 Unity.Sentis 命名空间。
  2. 加载神经网络模型文件。
  3. 为模型创建输入。
  4. 创建推理引擎(工作站)。
  5. 使用输入运行模型,推理出结果。
  6. 获取结果

3. 关于 ONNX 神经网络模型

3.1 什么是 ONNX Model

ONNX 是一种用于表示机器学习模型的开放格式。ONNX 定义了一组通用算子(机器学习和深度学习模型的构件)和一种通用文件格式,使人工智能开发人员能够在各种框架、工具、运行时和编译器中使用模型。ONNX 模型现已经成为一种广泛流行的开放标准格式。

ONNX 模型主要可以应用在以下方面:

Vision 视觉

  • 图像分类
  • 物体检测与图像分割
  • 身体、面部和手势分析
  • 图像处理

Language 语言

  • 机器理解
  • 机器翻译
  • 语言建模

其他

  • 视觉问题解答与对话
  • 语音和音频处理
  • 其他有趣的模型

3.2 加载 ONNX 神经网络模型

Sentis 可以导入开放神经网络交换 ONNX 格式的模型文件。要加载模型,请按照以下步骤操作:

  1. 从机器学习框架中将模型导出为 ONNX 格式,或从互联网上下载 ONNX 模型(推荐:ONNX Modle ZOO)。
  2. 将模型文件添加到 "项目 "窗口的 "资产 "文件夹中。
  3. 在脚本中创建运行时模型:
  • 本案例提供了一个示例模型https://download.csdn.net/download/leoysq/88661406
using Unity.Sentis;
.....//生成模型资源对象
ModelAsset modelAsset = Resources.Load("model-file-in-assets-folder") as ModelAsset;
//创建运行时模型对象
runtimeModel = ModelLoader.Load(modelAsset);//使用张量 API 为模型创建包含数据的张量。您可以将数组或纹理转换为张量。
//获取纹理图片作为输入
Texture2D inputTexture = Resources.Load("image-file") as Texture2D;
// 下面是将图片纹理转换为张量 Convert a texture to a tensor
TensorFloat inputTensor = TextureConverter.ToTensor(inputTexture);//创建推理引擎(a worker):
//在 Sentis 中,worker 就是推理引擎。您可以创建一个 Worker,将模型分解为可执行的任务,在 GPU 或 CPU 上运行这些任务,并输出结果
// 这条代码使用 Sentis 计算着色器创建一个在 GPU 上运行的 Worker:
Worker worker = WorkerFactory.CreateWorker(BackendType.GPUCompute, runtimeModel);// 运行模型
worker.Execute(inputTensor);// 使用 worker 对象的 PeekOutput()方法 获取结果,保存为张量类型
TensorFloat outputTensor = worker.PeekOutput() as TensorFloat;

扩展阅读: 一分钟快速了解张量Tensor

4. 完整示例

下面的示例对一个手写数字进行了分类。

  1. 准备工作:从 ONNX Model Zoo 下载手写识别 ONNX 模型文件,例如 MNIST 手写数字识别模型 mnist-12.onnx,并将其拖入项目窗口的 Assets 文件夹。
    mnist-12.onnx gitee 替代下载链接

  2. 将以下脚本附加到场景中的一个 GameObject。

using UnityEngine;
using Unity.Sentis;
using Unity.Sentis.Layers;public class ClassifyHandwrittenDigit : MonoBehaviour
{public Texture2D inputTexture;public ModelAsset modelAsset;Model runtimeModel;IWorker worker;public float[] results;void Start(){// Create the runtime modelruntimeModel = ModelLoader.Load(modelAsset);// Add softmax layer to end of model instead of non-softmaxed outputstring softmaxOutputName = "Softmax_Output";runtimeModel.AddLayer(new Softmax(softmaxOutputName, runtimeModel.outputs[0]));runtimeModel.outputs[0] = softmaxOutputName;// Create input data as a tensorusing Tensor inputTensor = TextureConverter.ToTensor(inputTexture, width: 28, height: 28, channels: 1);// Create an engineworker = WorkerFactory.CreateWorker(BackendType.GPUCompute, runtimeModel);// Run the model with the input dataworker.Execute(inputTensor);// Get the resultusing TensorFloat outputTensor = worker.PeekOutput() as TensorFloat;// Move the tensor data to the CPU before reading itoutputTensor.MakeReadable();results = outputTensor.ToReadOnlyArray();}void OnDisable(){// Tell the GPU we're finished with the memory the engine usedworker.Dispose();}
}
  1. 将模型资产拖入游戏对象检查器窗口中的 modelAsset 字段
  2. 下载下面的 digit.png 图片并将其拖入项目窗口的 Assets 文件夹。在导入设置中将 "Non-Power of 2"设置为 "None",然后单击 "Apply"。

  3. 将 digit.png 拖入游戏对象 Inspector 窗口中的 inputTexture(输入纹理)字段
  4. 点击播放。在 GameObject 的 "检查器 "窗口中,结果数组的每一项都显示了模型预测图像是数字的程度。例如,数组的第 0 项表示模型预测图像是手写 0 的程度。

参考资料:

  • Sentis 官方索引页
  • Sentis Quick Start
  • Sentis 官方文档
  • Sentis 官方论坛
  • 实例:Unity Sentis project sample: Build an escape room with a digit detection AI model

这篇关于【Unity+AI】SentisAI大模型植入Unity的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/536710

相关文章

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

Spring AI集成DeepSeek三步搞定Java智能应用的详细过程

《SpringAI集成DeepSeek三步搞定Java智能应用的详细过程》本文介绍了如何使用SpringAI集成DeepSeek,一个国内顶尖的多模态大模型,SpringAI提供了一套统一的接口,简... 目录DeepSeek 介绍Spring AI 是什么?Spring AI 的主要功能包括1、环境准备2

Spring AI集成DeepSeek实现流式输出的操作方法

《SpringAI集成DeepSeek实现流式输出的操作方法》本文介绍了如何在SpringBoot中使用Sse(Server-SentEvents)技术实现流式输出,后端使用SpringMVC中的S... 目录一、后端代码二、前端代码三、运行项目小天有话说题外话参考资料前面一篇文章我们实现了《Spring

Spring AI与DeepSeek实战一之快速打造智能对话应用

《SpringAI与DeepSeek实战一之快速打造智能对话应用》本文详细介绍了如何通过SpringAI框架集成DeepSeek大模型,实现普通对话和流式对话功能,步骤包括申请API-KEY、项目搭... 目录一、概述二、申请DeepSeek的API-KEY三、项目搭建3.1. 开发环境要求3.2. mav

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应