TVM LLVM 加速AI

2024-05-15 00:08
文章标签 ai 加速 llvm tvm

本文主要是介绍TVM LLVM 加速AI,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

下面为记录人工智能推理加速过程,基于TVM

总体脉络:

    1. TVM 安装
    2. TVM 测试及使用
    3. Auto TVM 使用
    4. 编译导出 so/dll
    5.在C++中调用生成的so/dll

零、什么是TVM

TVM是apache基金会开放的人工智能模型编译框架,由华人 陈天琦博士 初始开发。陈博士本科毕业于上海交大ACM班,有极深的计算机理论基础,有名的xgboost就是出自他手。

通常我们使用人工智能模型进行前向推理的方式是这样:

1. 训练模型

这一步骤对于广大炼丹师来说非常熟悉了,可以使用tensorflow或pytorch之类工具进行模型训练,得到模型文件(网络结构和参数)。

2. 使用推理引擎部署模型

推理一般我们可以使用上面提到的人工智能框架的前向推理功能进行处理。稍讲究一点的可以使用专用的人工智能推理框架,比如onnxruntime (ORT), NCNN (腾讯出品)等。 这种方式可以理解为解释方式(类比于python语言的解释运行方式)。在这一方式下,我们需要先加载模型,用通过的推理引擎创建网络结构并加载好网络参数,再将需要推理的数据输入模型,得到最后的推理结果。

另一种方式就是所谓的 JIT 方式, 类似java或其它带JIT的语言(如php 8.0) ,比如你可以直接在java中创建代码并调用tvm进行推理。 这种情况下TVM引擎没有完全发挥优化能力。

第三种方式,最复杂但是最高效的方式: TVM编译。 将推理引擎和模型编译优化成native code方式。你可以想象成自己写的一套函数,函数中已经硬编码了网络模型的参数,可以从整体上对整个模型加参数进行编译优化,得到最好性能的推理功能函数(算子和模型已经融为一体)

第三四方式: 在IOT设备上,可以使用裸金属方式,即不需要操作系统支持的程序下,生成推理库,只依赖c运行库,无需操作系统介入,适合IOT设备。

我们将一步一步引导 大家测试第二三种方式的使用,终极目标是在auto  TVM基础上实现第三种方式。

Auto TVM 使用模板创建搜索空间来帮助我们进一步优化算法,以达到性能调优的目的。即auto-tunning。

auto-tuning分两个步骤:第一步定义搜索空间;第二步是运行搜索算法来探索这个空间。在本教程中,你可以了解如何在TVM中执行这两个步骤。下面通过矩阵乘法展示auto-tuning的完整工作流程。

本文可能会涉及autoTVM实作手法。
一、TVM 安装

请参考 官方文档: https://tvm.apache.org/docs/install/index.html

在ubuntu 18.04下安装:

1. 安装基础环境

    sudo apt-get update
    sudo apt-get install -y python3 python3-dev python3-setuptools gcc libtinfo-dev zlib1g-dev build-essential cmake libedit-dev libxml2-dev

2. 下载源码

git clone --recursive https://github.com/apache/tvm tvm

3. 进入tvm目录

    mkdir build
    cp cmake/config.cmake build

3.下载llvm 预编译包:

https://releases.llvm.org/download.html

从下面下载自己需要的包,解压后放到某个目录,我放到了/opt下

我的路径是:

/opt/clang+llvm-10.0.0-x86_64-linux-gnu-ubuntu-18.04/
注意上面的路径依使用的llvm版本有不同而不同。

4. 修改刚才复制的 config.cmake 文件

修改这行: set(USE_LLVM /path/to/your/llvm/bin/llvm-config)

我的值 是 set(USE_LLVM /opt/clang+llvm-10.0.0-x86_64-linux-gnu-ubuntu-18.04/bin/llvm-config)

注意上面的路径,依自己的clang的解压目录而变化 (clang和llvm在本文中的意思相同,不作区别)

5. 编译

    cd build
    cmake ..
    make -j4

6. 安装 tvm库

mkdir /opt/tvm

将build目录下的 libtvm打头的so文件复制到/opt/tvm 下

当前的两个文件是:

libtvm_runtime.so  libtvm.so

至少编译完成,下面安装python下的tvm

 
二、安装python版本TVM

切换到刚才下载的tvm源码的目录,即那个tvm目录。在此目录下还有先前创建的build目录的。

确保你的python命令运行后提示是 python3 版本。

cd python; python setup.py install --user; cd ..

安装完成后,运行python

输入 import tvm 并回车

如果没有报错,刚表明安装tvm成功。

 
三、TVM测试

    git clone https://github.com/google/googletest
    cd googletest
    mkdir build
    cd build
    cmake ..
    make
    sudo make install

切换到刚才的tvm源码目录(下面有我们创建的build)

运行测试脚本:

./tests/scripts/task_cpp_unittest.sh

make cpptest
四、Auto TVM 自动调优

https://blog.csdn.net/hw5226349/article/details/92019491

 
五、C++端部署及导出so

https://zhuanlan.zhihu.com/p/60981432

六、后记

关于 四、五节的内容,为了内容完整,引用了几个网上的文章,后面会完善。

https://blog.csdn.net/znsoft/article/details/115024906

这篇关于TVM LLVM 加速AI的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/990243

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

AI行业应用(不定期更新)

ChatPDF 可以让你上传一个 PDF 文件,然后针对这个 PDF 进行小结和提问。你可以把各种各样你要研究的分析报告交给它,快速获取到想要知道的信息。https://www.chatpdf.com/

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

AI基础 L9 Local Search II 局部搜索

Local Beam search 对于当前的所有k个状态,生成它们的所有可能后继状态。 检查生成的后继状态中是否有任何状态是解决方案。 如果所有后继状态都不是解决方案,则从所有后继状态中选择k个最佳状态。 当达到预设的迭代次数或满足某个终止条件时,算法停止。 — Choose k successors randomly, biased towards good ones — Close