本文主要是介绍千问Qwen7B chat:本地部署及网页端使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。
-
使用conda创建虚拟环境,主要版本如下:
Python 3.9.18
CUDA 12.1
pytorch 2.2.2
2. 克隆代码到本地
git clone https://github.com/QwenLM/Qwen.git
3. 进入Qwen目录,执行安装命令
# 安装依赖
pip install -r requirements.txt
# 安装 web_demo 依赖
pip install -r requirements_web_demo.txt
4. 运行命令
python web_demo.py --server-port 8087 --server-name "0.0.0.0"
会下载很多模型文件,需要一点时间。下载完成后启动界面如下
在输入框里输入沟通内容“你是谁”。我们看一下后台输出:
这篇关于千问Qwen7B chat:本地部署及网页端使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!