如何把chatgpt-on-wechat 与RWKV-Runner结合打造本地微信chatgpt机器人

2024-03-05 05:04

本文主要是介绍如何把chatgpt-on-wechat 与RWKV-Runner结合打造本地微信chatgpt机器人,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

环境:

Win10

11代i7 64G内存 500G硬盘

chatgpt-on-wechat

RWKV-Runner

问题描述:

如何把chatgpt-on-wechat 与RWKV-Runner结合打造本地微信chatgpt机器人

在这里插入图片描述

解决方案:

chatgpt-on-wechat项目

有4种运行程序的方式供你选择:

在这里插入图片描述

本地开发环境支持 MacOS、Windows、Linux 系统,需要安装 python 环境,推荐的版本在 3.7.1 ~ 3.9.X 之间,可前往 官网 下载。

提示
在命令行执行 python3 -V,如果能显示正确的版本则表示安装成功。需要注意的是,python3 只是一个指向python解释器的引用,有可能在你的系统里这个别名是 "python" 或者 "python3.8",那么在后面你就需要用 "python""python3.8" 来代替 python3 运行程序。同样的,执行 pip3 -V 来确认已经成功安装包管理软件 pip。

RWKV-Runner项目

本项目旨在消除大语言模型的使用门槛,全自动为你处理一切,你只需要一个仅仅几MB的可执行程序。此外本项目提供了与OpenAI API兼容的接口,这意味着一切ChatGPT客户端都是RWKV客户端

一、本地部署chatgpt-on-wechat

1.下载源码
在命令行使用 git 克隆项目并进入目录:

git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/

在这里插入图片描述

2.安装依赖

需要耐心等待一段时间

pip3 install -r requirements.txt                # 必选依赖
pip3 install -r requirements-optional.txt       # 可选依赖,语音、tool插件等功能需要

在这里插入图片描述

3.配置

复制项目中的模板文件 config-template.json,来生成最终起效果的配置文件config.json,你可以通过执行以下命令完成:

cp config-template.json config.json

然后打开 config.json 文件,添加所需配置,具体配置含义参考 配置说明。

配置说明
说明
选择不同的部署方式进行配置的形式不同,但配置项的使用是完全相同的。Railway部署在模板页面中填写,Docker部署在 docker-compose.yml 文件中填写,Python部署则需要在 config.json 配置文件中填写。其中 docker-compose.yml 文件中的配置项使用大小写均可。下面以 Python部署 方式为例,介绍各配置项的用法。配置文件的模板在根目录的config-template.json中,可以复制该模板创建最终生效的 config.json 文件:cp config-template.json config.json然后在config.json中填入配置即可,以下是对默认配置的说明,可根据需要进行自定义修改(在实际json文件中要去掉注释哦):# config.json文件内容示例
{"open_ai_api_key": "YOUR API KEY",                          # 填入上面创建的 OpenAI API KEY"model": "gpt-3.5-turbo",                                   # 模型名称。当use_azure_chatgpt为true时,其名称为Azure上model deployment名称"proxy": "",                                                # 代理客户端的ip和端口"single_chat_prefix": ["bot", "@bot"],                      # 私聊时文本需要包含该前缀才能触发机器人回复"single_chat_reply_prefix": "[bot] ",                       # 私聊时自动回复的前缀,用于区分真人"group_chat_prefix": ["@bot"],                              # 群聊时包含该前缀则会触发机器人回复"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], # 开启自动回复的群名称列表"group_chat_in_one_session": ["ChatGPT测试群"],              # 支持会话上下文共享的群名称  "image_create_prefix": ["画", "看", "找"],                   # 开启图片回复的前缀"conversation_max_tokens": 1000,                            # 支持上下文记忆的最多字符数"speech_recognition": false,                                # 是否开启语音识别"group_speech_recognition": false,                          # 是否开启群组语音识别"use_azure_chatgpt": false,                                 # 是否使用Azure ChatGPT service代替openai ChatGPT service. 当设置为true时需要设置 open_ai_api_base,如 https://xxx.openai.azure.com/"azure_deployment_id": "",                                  # 采用Azure ChatGPT时,模型部署名称"character_desc": "你是ChatGPT, 一个由OpenAI训练的大型语言模型, 你旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",  # 人格描述# 订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复,可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。"subscribe_msg": "感谢您的关注!\n这里是ChatGPT,可以自由对话。\n支持语音对话。\n支持图片输出,画字开头的消息将按要求创作图片。\n支持角色扮演和文字冒险等丰富插件。\n输入{trigger_prefix}#help 查看详细指令。"
}配置说明:1.个人聊天个人聊天中,需要以 "bot""@bot" 为开头的内容触发机器人,对应配置项 single_chat_prefix (如果不需要以前缀触发可以填写 "single_chat_prefix": [""])
机器人回复的内容会以 "[bot] " 作为前缀, 以区分真人,对应的配置项为 single_chat_reply_prefix (如果不需要前缀可以填写 "single_chat_reply_prefix": "")
2.群组聊天群组聊天中,群名称需配置在 group_name_white_list 中才能开启群聊自动回复。如果想对所有群聊生效,可以直接填写 "group_name_white_list": ["ALL_GROUP"]
默认只要被人 @ 就会触发机器人自动回复;另外群聊天中只要检测到以 "@bot" 开头的内容,同样会自动回复(方便自己触发),这对应配置项 group_chat_prefix
可选配置: group_name_keyword_white_list配置项支持模糊匹配群名称,group_chat_keyword配置项则支持模糊匹配群消息内容,用法与上述两个配置项相同。(Contributed by evolay)
group_chat_in_one_session:使群聊共享一个会话上下文,配置 ["ALL_GROUP"] 则作用于所有群聊
3.语音识别添加 "speech_recognition": true 将开启语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,该参数仅支持私聊 (注意由于语音消息无法匹配前缀,一旦开启将对所有语音自动回复,支持语音触发画图);
添加 "group_speech_recognition": true 将开启群组语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,参数仅支持群聊 (会匹配group_chat_prefix和group_chat_keyword, 支持语音触发画图);
添加 "voice_reply_voice": true 将开启语音回复语音(同时作用于私聊和群聊),但是需要配置对应语音合成平台的key,由于itchat协议的限制,只能发送语音mp3文件,若使用wechaty则回复的是微信语音。
4.其他配置model: 模型名称,目前支持 gpt-3.5-turbo, text-davinci-003, gpt-4, gpt-4-32k (其中gpt-4 api暂未完全开放,申请通过后可使用)
temperature,frequency_penalty,presence_penalty: Chat API接口参数,详情参考OpenAI官方文档。
proxy:由于目前 openai 接口国内无法访问,需配置代理客户端的地址,详情参考 #351
对于图像生成,在满足个人或群组触发条件外,还需要额外的关键词前缀来触发,对应配置 image_create_prefix
关于OpenAI对话及图片接口的参数配置(内容自由度、回复字数限制、图片大小等),可以参考 对话接口 和 图像接口 文档,在config.py中检查哪些参数在本项目中是可配置的。
conversation_max_tokens:表示能够记忆的上下文最大字数(一问一答为一组对话,如果累积的对话字数超出限制,就会优先移除最早的一组对话)
rate_limit_chatgpt,rate_limit_dalle:每分钟最高问答速率、画图速率,超速后排队按序处理。
clear_memory_commands: 对话内指令,主动清空前文记忆,字符串数组可自定义指令别名。
hot_reload: 程序退出后,暂存微信扫码状态,默认关闭。
character_desc 配置中保存着你对机器人说的一段话,他会记住这段话并作为他的设定,你可以为他定制任何人格 (关于会话上下文的更多内容参考该 issue)
subscribe_msg:订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复, 可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
注意
全量配置可在 config.py 中查看,但该文件仅做配置的说明,直接修改是无效的,config.json 文件才是最终生效的配置文件。
如果启动程序失败并报错 JSONDecodeError,就是 config.json 中配置文件的json格式错误,报错中一般会提示哪一行出现问题。也可以去 在线JSON校验 网站进行验证,同时需要注意 openai_key 的安全。

4.运行

一切准备就绪,可以启动程序了,直接在项目目录使用cmd下执行:

python3 app.py

在这里插入图片描述

扫描输出的二维码即可完成登录。如果你使用的是 pycharm 等IDE,就更方便了,点击运行按钮就可以直接运行。
在这里插入图片描述成功运行之后日志中会输出 “Start auto replying”,这表示你用于扫码登录的账号已经变身为机器人了

在这里插入图片描述
二、部署本地RWKV-Runner CPU尝鲜版

1.下载RWKV-Runner.exe程序
在这里插入图片描述2.主页面
在这里插入图片描述

3.下载对应模型,在线下载很慢,可能需要科学
在这里插入图片描述4.如网盘下载模型放如models文件夹内,我下了1B5这个

在这里插入图片描述

5.开始也可以直接点主页右下角运行,然后按提示操作,会自动下载对应所缺的东西(python等等一些东西)

在这里插入图片描述6.cpu运行会提示改配置里这

在这里插入图片描述

7.最后点运行
在这里插入图片描述
运行成功

在这里插入图片描述

测试对话
在这里插入图片描述

8.定义一下key

在这里插入图片描述9.测试本地api服务是否正常

浏览器输入本地API
在这里插入图片描述

三、chatgpt-on-wechat 与RWKV-Runner结合

更改chatgpt-on-wechat配置文件,参数如下,api填本地RWKV-Runner,报错重启项目
在这里插入图片描述

四、测试使用

让你的好友给你发消息 或在群聊@你 都会触发自动回复,效果如下图:

在这里插入图片描述

这篇关于如何把chatgpt-on-wechat 与RWKV-Runner结合打造本地微信chatgpt机器人的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/775406

相关文章

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

在java中如何将inputStream对象转换为File对象(不生成本地文件)

《在java中如何将inputStream对象转换为File对象(不生成本地文件)》:本文主要介绍在java中如何将inputStream对象转换为File对象(不生成本地文件),具有很好的参考价... 目录需求说明问题解决总结需求说明在后端中通过POI生成Excel文件流,将输出流(outputStre

SpringBoot配置Ollama实现本地部署DeepSeek

《SpringBoot配置Ollama实现本地部署DeepSeek》本文主要介绍了在本地环境中使用Ollama配置DeepSeek模型,并在IntelliJIDEA中创建一个Sprin... 目录前言详细步骤一、本地配置DeepSeek二、SpringBoot项目调用本地DeepSeek前言随着人工智能技

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

OpenManus本地部署实战亲测有效完全免费(最新推荐)

《OpenManus本地部署实战亲测有效完全免费(最新推荐)》文章介绍了如何在本地部署OpenManus大语言模型,包括环境搭建、LLM编程接口配置和测试步骤,本文给大家讲解的非常详细,感兴趣的朋友一... 目录1.概况2.环境搭建2.1安装miniconda或者anaconda2.2 LLM编程接口配置2

如何用java对接微信小程序下单后的发货接口

《如何用java对接微信小程序下单后的发货接口》:本文主要介绍在微信小程序后台实现发货通知的步骤,包括获取Access_token、使用RestTemplate调用发货接口、处理AccessTok... 目录配置参数 调用代码获取Access_token调用发货的接口类注意点总结配置参数 首先需要获取Ac

在VSCode中本地运行DeepSeek的流程步骤

《在VSCode中本地运行DeepSeek的流程步骤》本文详细介绍了如何在本地VSCode中安装和配置Ollama和CodeGPT,以使用DeepSeek进行AI编码辅助,无需依赖云服务,需要的朋友可... 目录步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT安装Ollama下载Olla

Python结合Flask框架构建一个简易的远程控制系统

《Python结合Flask框架构建一个简易的远程控制系统》这篇文章主要为大家详细介绍了如何使用Python与Flask框架构建一个简易的远程控制系统,能够远程执行操作命令(如关机、重启、锁屏等),还... 目录1.概述2.功能使用系统命令执行实时屏幕监控3. BUG修复过程1. Authorization

Spring AI集成DeepSeek三步搞定Java智能应用的详细过程

《SpringAI集成DeepSeek三步搞定Java智能应用的详细过程》本文介绍了如何使用SpringAI集成DeepSeek,一个国内顶尖的多模态大模型,SpringAI提供了一套统一的接口,简... 目录DeepSeek 介绍Spring AI 是什么?Spring AI 的主要功能包括1、环境准备2