使用OpenVINO在本地CPU运行大模型的过程

2024-04-28 00:36

本文主要是介绍使用OpenVINO在本地CPU运行大模型的过程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 引入

OpenVINO 工具套件是Intel开源的工具,可以在CPU上加速 AI推理过程。主要是用在CPU场景下的,在Intel的硬件上使用。
本文在CPU上实测一下OpenVINO运行大模型ChatGLM3-6b的运行效果,并记录整个过程。

2. 测试环境

在如下配置的笔记本上进行实测:

  • Windows 11 家庭中文版,CPU
  • Anaconda3-2024.02-1-Windows-x86_64
  • Python 3.11.7
  • 内存:32G

3. 安装OpenVINO

上网搜有一堆比较复杂的OpenVINO的安装方法,本文直接使用pip安装,这是最简单的安装方法。

pip install openvino

安装的版本是2024.0.0

4. 使用OpenVINO运行大模型

  1. 下载大模型
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
  1. 下载运行大模型的程序
git clone https://github.com/OpenVINO-dev-contest/chatglm3.openvino.git

使用OpenVINO调用大模型进行问答的代码都在这里面了,实测可以直接使用。

  1. 配置运行环境
cd chatglm3.openvinopip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
  1. 模型格式转换
python convert.py --model_id THUDM\chatglm3-6b --output output\chatglm3ov

转换前THUDM\chatglm3-6b大小为46.5G,转换后output\chatglm3ov减少为11.6G。

  1. 运行大模型问答交互测试程序
(base) C:\Users\conte\chatglm3.openvino>python chat.py --model_path output\chatglm3ov --device cpu
INFO:nncf:NNCF initialized successfully. Supported frameworks detected: torch, onnx, openvino
Setting eos_token is not supported, use the default one.
Setting pad_token is not supported, use the default one.
Setting unk_token is not supported, use the default one.
====Compiling model====
The argument `trust_remote_code` is to be used along with export=True. It will be ignored.
Compiling the model to CPU ...
====Starting conversation====
用户: hello
ChatGLM3-6B-OpenVINO:
Hello! How can I help you today?用户: stop

上面为具体的命令与用户输入hello后模型的输出内容实例。最后用户输入stop即可退出测试程序。

5. 总结

运行后,CPU是跑满的,32G内存也几乎被占满,启动chat.py后要等待1min,然后即可进行问答,输出token的速度基本每秒2~5个。模型进行格式转换后,确实是变小了很多。

参考

  • https://blog.csdn.net/m0_63007797/article/details/136690443

这篇关于使用OpenVINO在本地CPU运行大模型的过程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/941912

相关文章

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

如何用Docker运行Django项目

本章教程,介绍如何用Docker创建一个Django,并运行能够访问。 一、拉取镜像 这里我们使用python3.11版本的docker镜像 docker pull python:3.11 二、运行容器 这里我们将容器内部的8080端口,映射到宿主机的80端口上。 docker run -itd --name python311 -p

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G