打破硬件壁垒:TVM 助力 AI技术跨平台部署

2024-01-12 13:20

本文主要是介绍打破硬件壁垒:TVM 助力 AI技术跨平台部署,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 《TVM编译器原理与实践》
    • 编辑推荐
    • 内容简介
    • 作者简介
    • 目录
    • 前言/序言
    • 获取方式


随着人工智能(Artificial Intelligence,AI)在全世界信息产业中的广泛应用,深度学习模型已经成为推动AI技术革命的关键。TensorFlow、PyTorch、MXNet、Caffe等深度学习模型已经在服务器级GPU上取得了显著的成果。然而,大多数现有的系统框架只针对小范围的服务器级GPU进行过优化,因此需要做很多的优化努力,以便在汽车、手机端、物联网设备及专用加速器(FPGA、ASIC)等其他平台上部署。为了解决这一问题,TVM应运而生。

TVM是一个基于中间表示(IR)的统一解决方案,它能自动优化深度学习模型,并提供跨平台的高效开源部署框架。有了TVM的帮助,只需要很少的定制工作,就可以轻松地在手机、嵌入式设备甚至浏览器上运行深度学习模型。此外,TVM还为多种硬件平台上的深度学习计算提供了统一的优化框架,包括一些有自主研发计算原语的专用加速器。

TVM是一个深度学习编译器,所有人都能随时随地使用开源框架学习研发。围绕TVM形成了多元化社区,社区成员包括硬件供应商、编译器工程师和机器学习研究人员等,共同构建了一个统一的可编程软件堆栈,丰富了整个机器学习技术生态系统。

TVM是一个新型的AI编译器,广泛应用于各种产品研发中,在企业与学术研究中有很大的影响。通过TVM,深度学习模型可以在更广泛的硬件平台上得到优化和部署,从而推动AI技术的普及和发展。

首先,TVM解决了深度学习模型在不同硬件平台上的部署问题。由于现有的系统框架主要针对服务器级GPU进行优化,因此在其他平台上部署深度学习模型往往需要大量的定制工作。而TVM提供了一个统一的优化框架,可以自动将深度学习模型优化到不同的硬件平台上,大大减少了部署的难度和工作量。

其次,TVM提高了深度学习模型在不同硬件平台上的性能。通过自动优化和调优,TVM可以在保证模型准确性的同时,提高模型在不同硬件平台上的运行速度和能效。这对于在资源受限的设备上运行深度学习模型具有重要意义,例如在手机、嵌入式设备和物联网设备上。

此外,TVM还支持多种专用加速器,如FPGA和ASIC。这些加速器具有很高的计算性能和能效,但通常需要定制化的开发流程。通过TVM,用户可以将这些加速器纳入统一的优化框架,从而充分利用它们的优势。

TVM作为一个开源项目,吸引了来自世界各地的开发者和企业参与其中。围绕TVM形成了一个多元化的社区,社区成员共同推动TVM的发展和完善。这种开放的合作模式有助于加速AI技术的创新和应用。

总之,TVM作为一个基于中间表示的统一解决方案,为深度学习模型在不同硬件平台上的优化和部署提供了强大的支持。通过TVM,深度学习模型可以在更广泛的硬件平台上得到应用,从而推动AI技术的普及和发展。同时,围绕TVM形成的多元化社区也为整个机器学习技术生态系统的繁荣做出了重要贡献。


《TVM编译器原理与实践》

在这里插入图片描述
适读人群 :从事AI算法,软件,AI芯片,编译器开发工程技术人员

编辑推荐

人工智能(Artificial Intelligence,AI)已经在全世界信息产业中获得广泛应用。深度学习模型推动了AI技术革命,如 TensorFlow、PyTorch、MXNet、Caffe等。大多数现有的系统框架只针对小范围的服务器级 GPU进行过优化,因此需要做很多的优化努力,以便在汽车、手机端、物联网设备及专用加速器(FPGA、ASIC)等其他平台上部署。随着深度学习模型和硬件后端数量的增加,TVM构建了一种基于中间表示 (IR)的统一解决方案。TVM不仅能自动优化深度学习模型,还提供了跨平台的高效开源部署框架。大模型的热度逐渐上升,将人工智能理论及算法框架转为落地项目实现,TVM是一个很好的桥梁。因此,本书将得到广大读者的喜爱。

内容简介

TVM(Tensor Virtual Machine, 张量虚拟机)是一种开源的模型编译框架,旨在将机器学习模型自动编译成可供下层硬件执行的机器语言,从而利用多种类型的算力。其工作原理是,先将深度学习模型进行优化推理、内存管理与线程调度,再借用LLVM框架将模型部署在CPU、GPU、FPGA、ARM等硬件设备上。
本书全面解析TVM的主要功能,帮助读者理解TVM工作原理,以及使用 TVM对深度学习与机器学习进行优化与部署。
本书结合作者多年的工作与学习经验,力求将TVM基础理论与案例实践融合在一起进行详细讲解。全书共9章,包括TVM基本知识,使用TVM开发,算子融合与图优化,TVM量化技术,TVM 优化调度,Relay IR,代码生成,后端部署与OpenCL(Open Computing Language,开放运算语言),自动调度、自动搜索与成本模型。各章除了包含重要的知识点和实践技能外,还配备了精心挑选的典型案例。
本书适合从事AI算法、软件、编译器开发以及硬件开发等专业的工程技术人员、科研工作人员、技术管理人员阅读,也可以作为编译器相关专业高校师生的参考用书。

作者简介

吴建明,上海交通大学模式识别与智能系统专业博士毕业。长期从事人工智能芯片设计,尤其擅长TVM/LLVM编译器、AI框架、自动驾驶、芯片制造,嵌入式系统等领域的理论研究与技术创新。长期在一线工作,包括产品设计与代码实现等,主持和参与过30多项产品的研发。还参与过国家自然科学基金、上海市科委项目,并在核心期刊公开发表过8篇论文,其中6篇是第一作者。

目录

1TVM基本知识/
1.1TVM基本原理/
1.1.1TVM概述/
1.1.2TVM 模型优化部署概述/
1.2TVM编译过程/
1.2.1编译流程/
1.2.2TVM编译数据结构/
1.2.3TVM编译数据处理/
1.2.4TVM的Pass过程/
1.3TVM开源工程逻辑架构/
1.3.1代码库代码结构/
1.3.2代码自动内核/
1.4TVM应用支持/
1.4.1TVM的工作流程/
1.4.2支持多语言与多平台/
1.4.3TVM应用场景/
1.4.4TVM优化模型推理/
1.4.5TVM编译器与运行时组件/
1.4.6TVM运行时主要模块/
1.4.7TVM简单代码生成编译示例/
1.4.8TVM各模块之间的关系/
1.5TVM特色与挑战/
1.5.1TVM特色/
1.5.2支持多种后端设备/
1.5.3TVM应对的挑战/2章 使用TVM开发/
2.1配置TVM环境/
2.1.1apache TVM源码下载/
2.1.2配置TVM的开发环境/
2.1.3TVM conda环境使用方法/
2.1.4编译实现/
2.1.5导入模型方法/
2.2在conda环境编译优化TVM yolov3示例/
2.3Python与C++的调用关系/
2.3.1TVM中底层C++数据结构/
2.3.2进行函数注册/
2.3.3上层Python调用/
2.4TVM自定义代码示例/
2.4.1TVM如何添加代码/
2.4.2TVM代码生成实现示例/
2.5TVM实现算法全流程/
2.5.1配置张量与创建调度/
2.5.2进行降级算子优化/
2.5.3构建host目标程序/
2.5.4实现后端代码生成/3章 算子融合与图优化/
3.1算子概述/
3.1.1TVM融合组件示例/
3.1.2优化计算图/
3.2GCN融合/
3.2.1图的概念/
3.2.2深度学习新特征/
3.3图融合GCN示例/
3.3.1GCN的PyTorch实现/
3.3.2融合BN与Conv层/
3.4TVM图优化与算子融合/
3.4.1图与算子优化/
3.4.2自定义算子/
3.4.3算子融合步骤/
3.4.4向Relay中添加operator/
3.5端到端优化/
3.5.1 AI框架概述/
3.5.2计算图优化层/
3.5.3TVM算子融合的4种方法/
3.5.4数据布局转换/
3.5.5张量表达式语言/
3.5.6调度空间分析/
3.6 TVM图优化与算子融合方案分析/
3.6.1图优化框架分析/
3.6.2TVM优化基础分析/
3.6.3TVM优化参数/
3.6.4算子优化图示/
3.6.5自定义图级优化/
3.7支配树技术/
3.7.1支配树概述/
3.7.2算子融合方案及示例/
3.8控制流与优化器/
3.8.1控制流/
3.8.2优化器/
3.9TVM存储与调度/
3.9.1TVM编译器优化/
3.9.2图结构基本优化/
3.9.3张量计算/
3.10多功能张量加速器VTA/
3.10.1VTA-TVM 硬件-软件堆栈/
3.10.2VTA主要功能/
3.10.3VTA示例/
3.10.4VTA计算模块/
3.10.5VTA控制/
3.10.6microTVM模型/
3.11TVM代码库结构与示例/
3.11.1代码库结构/
3.11.2张量添加示例/
3.12主机驱动的执行/
3.12.1 firmware二进制文件/
3.12.2计算声明/
3.12.3数据平铺/
3.12.4卷积运算/
3.12.5空间填充/4TVM量化技术/
4.1TVM量化概述/
4.1.1TVM量化现状/
4.1.2TVM量化原理/
4.2int8量化与TVM执行/
4.2.1两种主要量化方案/
4.2.2int8量化原理分析/
4.2.3KL散度计算/
4.2.4实现int8量化/
4.3低精度训练与推理/
4.4NN量化/
4.4.1神经网络量化概述/
4.4.2优化数据与网络/
4.4.3前向推理与反向传播/
4.5熵校准示例/
4.6TVM量化流程/
4.6.1Relay的两种并行量化/
4.6.2Relay优化Pass方法/
4.6.3量化处理硬件说明/
4.6.4阈值估计方案/
4.6.5模拟量化误差/
4.6.6尺度计算/
4.6.7数据类型分配/
4.6.8数据类型分配日志/
4.6.9神经网络低精度量化/
4.7TVM量化程序分析/5TVM优化调度/
5.1TVM 运行时系统/
5.1.1TVM 运行时系统框架/
5.1.2PackedFunc编译与部署/
5.1.3构建 PackedFunc模块/
5.1.4远程部署方法/
5.1.5TVM 对象与编译器分析/
5.2自动微分静态图与动态图/
5.2.1计算图分类/
5.2.2动态图实现示例/
5.3机器学习自动微分/
5.3.1微分方法/
5.3.2手动微分/
5.3.3数值微分/
5.3.4符号微分/
5.3.5自动微分/
5.3.6自动微分实现示例/
5.4稀疏矩阵分析/
5.4.1稀疏矩阵概念/
5.4.2稀疏矩阵优化/
5.4.3特定矩阵压缩存储/
5.4.4稀疏矩阵实现示例/
5.5TVM张量计算分析/
5.5.1生成张量运算/
5.5.2嵌套并行与协作/
5.5.3张量化计算/
5.5.4显式内存延迟隐藏/6章 Relay IR/
6.1TVM数据介绍/
6.1.1TVM模块框架介绍/
6.1.2Relay IR原理简介/
6.1.3构建计算图/
6.1.4let绑定与作用域/
6.2IR代码生成/
6.2.1前端优化/
6.2.2节点优化/
6.2.3代数优化/
6.2.4数据流级别的优化/
6.3在Relay中注册算子/
6.3.1添加节点,定义编译参数/
6.3.2运算类型关系分析/
6.3.3C++中进行RELAY_REGISTER_OP宏注册/
6.3.4算子注册与调度/
6.3.5注册函数API分析/
6.3.6将Python API打包/
6.3.7单元测试分析/
6.4TVM中IR示例/
6.4.1IRModule技术分析/
6.4.2TVM Runtime(运行时)分析/
6.4.3预测部署实现/
6.4.4动态图实现/

前言/序言

人工智能(Artificial Intelligence,AI)已经在全世界信息产业中获得广泛应用。深度学习模型推动了AI技术革命,如 TensorFlow、PyTorch、MXNet、Caffe等。大多数现有的系统框架只针对小范围的服务器级 GPU进行过优化,因此需要做很多的优化努力,以便在汽车、手机端、物联网设备及专用加速器(FPGA、ASIC)等其他平台上部署。随着深度学习模型和硬件后端数量的增加,TVM构建了一种基于中间表示 (IR)的统一解决方案。TVM不仅能自动优化深度学习模型,还提供了跨平台的高效开源部署框架。

有了TVM的帮助,只需要很少的定制工作,就可以轻松地在手机、嵌入式设备甚至浏览器上运行深度学习模型。TVM 还为多种硬件平台上的深度学习计算提供了统一的优化框架,包括一些有自主研发计算原语的专用加速器。TVM是一个深度学习编译器,所有人都能随时随地使用开源框架学习研发。围绕TVM形成了多元化社区,社区成员包括硬件供应商、编译器工程师和机器学习研究人员等,共同构建了一个统一的可编程软件堆栈,丰富了整个机器学习技术生态系统。

TVM是一个新型的AI编译器,广泛应用于各种产品研发中,在企业与学术研究中有很大的影响。但是,目前市面上有关TVM的书还很少,本书试图弥补这个空缺。全书的特点总结如下:

第一,从TVM的概念入手,分析了TVM的基本原理和关键支撑技术。

第二,从TVM的环境搭建到案例实践逐步展开,分析如何使用TVM进行实战开发。

第三,介绍了TVM的重要关键技术,如算子与图融合、量化技术、Relay IR(中间表示)、优化调度、编译部署等,分析了这些模块的理论与案例实践。

第四,TVM对后端相关的技术进行了分析与实践,包括代码生成、自动调度、自动搜索与成本模型等。

获取方式

  • 京东图书:《TVM编译器原理与实践》(吴建明,吴一昊)

这篇关于打破硬件壁垒:TVM 助力 AI技术跨平台部署的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/597995

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

【专题】2024飞行汽车技术全景报告合集PDF分享(附原数据表)

原文链接: https://tecdat.cn/?p=37628 6月16日,小鹏汇天旅航者X2在北京大兴国际机场临空经济区完成首飞,这也是小鹏汇天的产品在京津冀地区进行的首次飞行。小鹏汇天方面还表示,公司准备量产,并计划今年四季度开启预售小鹏汇天分体式飞行汽车,探索分体式飞行汽车城际通勤。阅读原文,获取专题报告合集全文,解锁文末271份飞行汽车相关行业研究报告。 据悉,业内人士对飞行汽车行业

客户案例:安全海外中继助力知名家电企业化解海外通邮困境

1、客户背景 广东格兰仕集团有限公司(以下简称“格兰仕”),成立于1978年,是中国家电行业的领军企业之一。作为全球最大的微波炉生产基地,格兰仕拥有多项国际领先的家电制造技术,连续多年位列中国家电出口前列。格兰仕不仅注重业务的全球拓展,更重视业务流程的高效与顺畅,以确保在国际舞台上的竞争力。 2、需求痛点 随着格兰仕全球化战略的深入实施,其海外业务快速增长,电子邮件成为了关键的沟通工具。

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学