本文主要是介绍ChatGLM3初体验,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
mac本地化部署ChatGLM3
- 写在前面
- 环境准备
- 1. python环境
- 2. 安装第三方依赖torch
- 3.下载模型
- 代码准备
- 1.clone代码
- run
- 效果
写在前面
建议直接去看官方文档
https://github.com/THUDM/ChatGLM3?tab=readme-ov-file
环境准备
1. python环境
python -V
## 3.11.4
2. 安装第三方依赖torch
pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
3.下载模型
https://modelscope.cn/models/ZhipuAI/chatglm3-6b/files
克隆下来,几个大文件可能需要手动下载,克隆完成后注意看看文件的大小
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git
代码准备
1.clone代码
git clone https://github.com/THUDM/ChatGLM3.git
cd ChatGLM3
然后使用 pip 安装依赖:
pip install -r requirements.txt
ChatGLM3目录介绍
名称 | 说明 |
---|---|
basic_demo | 基础demo(cli_demo和web_demo) |
composite_demo | 综合demo(聊天、工具和代码解释器) |
finetune_demo | 基础模型微调 |
langchain_demo | langchain demo |
model | 自己创建的,将模型文件放在此目录下 |
openai_api_demo | openapi的api接口demo |
tensorrt_llm_demo | tensorTR-llm demo |
run
替换模型为本地文件
修改代码中MODEL_PATH为下载的模型的路径
MODEL_PATH = os.environ.get('MODEL_PATH', '/your local path/chatglm3-6b')
TOKENIZER_PATH = os.environ.get("TOKENIZER_PATH", MODEL_PATH)tokenizer = AutoTokenizer.from_pretrained(TOKENIZER_PATH, trust_remote_code=True)
model = AutoModel.from_pretrained(MODEL_PATH, trust_remote_code=True).to('mps').eval()
然后直接run即可。
启动 composite_demo/main.py时出现
AttributeError: st.session_state has no attribute "chat_history". Did you forget to initialize it?
使用下面的命令启动、
streamlit run main.py
效果
这篇关于ChatGLM3初体验的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!