使用OpenVINO在本地CPU运行大模型的过程

2024-04-28 00:36

本文主要是介绍使用OpenVINO在本地CPU运行大模型的过程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 引入

OpenVINO 工具套件是Intel开源的工具,可以在CPU上加速 AI推理过程。主要是用在CPU场景下的,在Intel的硬件上使用。
本文在CPU上实测一下OpenVINO运行大模型ChatGLM3-6b的运行效果,并记录整个过程。

2. 测试环境

在如下配置的笔记本上进行实测:

  • Windows 11 家庭中文版,CPU
  • Anaconda3-2024.02-1-Windows-x86_64
  • Python 3.11.7
  • 内存:32G

3. 安装OpenVINO

上网搜有一堆比较复杂的OpenVINO的安装方法,本文直接使用pip安装,这是最简单的安装方法。

pip install openvino

安装的版本是2024.0.0

4. 使用OpenVINO运行大模型

  1. 下载大模型
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
  1. 下载运行大模型的程序
git clone https://github.com/OpenVINO-dev-contest/chatglm3.openvino.git

使用OpenVINO调用大模型进行问答的代码都在这里面了,实测可以直接使用。

  1. 配置运行环境
cd chatglm3.openvinopip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
  1. 模型格式转换
python convert.py --model_id THUDM\chatglm3-6b --output output\chatglm3ov

转换前THUDM\chatglm3-6b大小为46.5G,转换后output\chatglm3ov减少为11.6G。

  1. 运行大模型问答交互测试程序
(base) C:\Users\conte\chatglm3.openvino>python chat.py --model_path output\chatglm3ov --device cpu
INFO:nncf:NNCF initialized successfully. Supported frameworks detected: torch, onnx, openvino
Setting eos_token is not supported, use the default one.
Setting pad_token is not supported, use the default one.
Setting unk_token is not supported, use the default one.
====Compiling model====
The argument `trust_remote_code` is to be used along with export=True. It will be ignored.
Compiling the model to CPU ...
====Starting conversation====
用户: hello
ChatGLM3-6B-OpenVINO:
Hello! How can I help you today?用户: stop

上面为具体的命令与用户输入hello后模型的输出内容实例。最后用户输入stop即可退出测试程序。

5. 总结

运行后,CPU是跑满的,32G内存也几乎被占满,启动chat.py后要等待1min,然后即可进行问答,输出token的速度基本每秒2~5个。模型进行格式转换后,确实是变小了很多。

参考

  • https://blog.csdn.net/m0_63007797/article/details/136690443

这篇关于使用OpenVINO在本地CPU运行大模型的过程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/941912

相关文章

如何使用celery进行异步处理和定时任务(django)

《如何使用celery进行异步处理和定时任务(django)》文章介绍了Celery的基本概念、安装方法、如何使用Celery进行异步任务处理以及如何设置定时任务,通过Celery,可以在Web应用中... 目录一、celery的作用二、安装celery三、使用celery 异步执行任务四、使用celery

使用Python绘制蛇年春节祝福艺术图

《使用Python绘制蛇年春节祝福艺术图》:本文主要介绍如何使用Python的Matplotlib库绘制一幅富有创意的“蛇年有福”艺术图,这幅图结合了数字,蛇形,花朵等装饰,需要的可以参考下... 目录1. 绘图的基本概念2. 准备工作3. 实现代码解析3.1 设置绘图画布3.2 绘制数字“2025”3.3

Jsoncpp的安装与使用方式

《Jsoncpp的安装与使用方式》JsonCpp是一个用于解析和生成JSON数据的C++库,它支持解析JSON文件或字符串到C++对象,以及将C++对象序列化回JSON格式,安装JsonCpp可以通过... 目录安装jsoncppJsoncpp的使用Value类构造函数检测保存的数据类型提取数据对json数

python使用watchdog实现文件资源监控

《python使用watchdog实现文件资源监控》watchdog支持跨平台文件资源监控,可以检测指定文件夹下文件及文件夹变动,下面我们来看看Python如何使用watchdog实现文件资源监控吧... python文件监控库watchdogs简介随着Python在各种应用领域中的广泛使用,其生态环境也

Python中构建终端应用界面利器Blessed模块的使用

《Python中构建终端应用界面利器Blessed模块的使用》Blessed库作为一个轻量级且功能强大的解决方案,开始在开发者中赢得口碑,今天,我们就一起来探索一下它是如何让终端UI开发变得轻松而高... 目录一、安装与配置:简单、快速、无障碍二、基本功能:从彩色文本到动态交互1. 显示基本内容2. 创建链

springboot整合 xxl-job及使用步骤

《springboot整合xxl-job及使用步骤》XXL-JOB是一个分布式任务调度平台,用于解决分布式系统中的任务调度和管理问题,文章详细介绍了XXL-JOB的架构,包括调度中心、执行器和Web... 目录一、xxl-job是什么二、使用步骤1. 下载并运行管理端代码2. 访问管理页面,确认是否启动成功

最新版IDEA配置 Tomcat的详细过程

《最新版IDEA配置Tomcat的详细过程》本文介绍如何在IDEA中配置Tomcat服务器,并创建Web项目,首先检查Tomcat是否安装完成,然后在IDEA中创建Web项目并添加Web结构,接着,... 目录配置tomcat第一步,先给项目添加Web结构查看端口号配置tomcat    先检查自己的to

使用Nginx来共享文件的详细教程

《使用Nginx来共享文件的详细教程》有时我们想共享电脑上的某些文件,一个比较方便的做法是,开一个HTTP服务,指向文件所在的目录,这次我们用nginx来实现这个需求,本文将通过代码示例一步步教你使用... 在本教程中,我们将向您展示如何使用开源 Web 服务器 Nginx 设置文件共享服务器步骤 0 —

Java中switch-case结构的使用方法举例详解

《Java中switch-case结构的使用方法举例详解》:本文主要介绍Java中switch-case结构使用的相关资料,switch-case结构是Java中处理多个分支条件的一种有效方式,它... 目录前言一、switch-case结构的基本语法二、使用示例三、注意事项四、总结前言对于Java初学者

Golang使用minio替代文件系统的实战教程

《Golang使用minio替代文件系统的实战教程》本文讨论项目开发中直接文件系统的限制或不足,接着介绍Minio对象存储的优势,同时给出Golang的实际示例代码,包括初始化客户端、读取minio对... 目录文件系统 vs Minio文件系统不足:对象存储:miniogolang连接Minio配置Min