Cloudflare Worker 部署bingai

2024-05-26 00:20

本文主要是介绍Cloudflare Worker 部署bingai,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Cloudflare Worker 部署

1. 注册 Cloudflare 账号

2. 一键部署

登录账户后, 点击下面链接

https://deploy.workers.cloudflare.com/?url=https://github.com/Harry-zklcdc/go-proxy-bingai

点击「Authorize Workers」, 登录 Github 账号授权 Cloudflare

点击「I have a account」

在这里插入图片描述

然后点击「Worker Dashboard」

在这里插入图片描述

复制 「Account ID」
在这里插入图片描述

粘贴至前一步的「Account ID」输入框中

然后点击「My Profile」-> 「创建令牌」

在这里插入图片描述

选择第四项「编辑 Cloudflare Workers」, 点击「使用模板」

然后修改 账户资源 的值为 你的账号, 区域资源所有区域

在这里插入图片描述

然后点击「继续以显示摘要」

点击「创建令牌」

然后点击「Copy」按钮复制 API 令牌

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

粘贴至一键部署的框中, 点击「Connect account」

然后依次点击「Fork the repository」-> 「Repository Actions」->「I understand my workflows, go ahead and enable them」, 以启用Github Action

在这里插入图片描述

回到上级页面, 依次点击「Workflows enabled」->「Deploy」

回到 Fork 的仓库中, 点击「Actions」, 有如下结果即部署成功

3. 编辑环境变量

进入 Cloudflare 控制面板, 依次点击「Workers 和 Pages」->「go-proxy-bingai」

点击「设置」->「变量」->「添加变量」

添加以下两个变量

APIKEY=sk-xxxxxx #设置为自定义值
BYPASS_SERVER=https://bypass.b1ng.chat #也可以为自己的人机验证服务地址

然后点击「保存并部署」

可用环境变量

Go_Proxy_BingAI_AUTH_KEY       # 授权密码
APIKEY                         # BingAPI APIKEY
BYPASS_SERVER                  # Bypass Server 链接
Go_Proxy_BingAI_USER_TOKEN     # _U Cookie, 可配置多个, 使用 "," 分隔
USER_KievRPSSecAuth            # KievRPSSecAuth Cookie
USER_RwBf                      # RwBf Cookie
USER_MUID                      # MUID Cookie
Go_Proxy_BingAI_BLANK_API_KEY  # 是否确定APIKEY为空,否则APIKEY为设置的值, 或随机生成
NIGHTLY                        # nightly版本

4. 获取访问链接

在 Worker 控制台找到下面的链接即可

在这里插入图片描述

5. 后续升级

在 Fork 的项目地址中, 点击「Sync Fork」, 等待 Actions 自动部署完成后即可

6. 进阶教程 - 自定义域名

如果你是小白, 那么就在这停止一切操作

请先确保域名绑定至 Cloudflare

在Worker 控制台中, 选择「触发器」-> 「添加自定义域」即可实现自定义域名

🚀 演示站

这篇关于Cloudflare Worker 部署bingai的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1003031

相关文章

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

nginx部署https网站的实现步骤(亲测)

《nginx部署https网站的实现步骤(亲测)》本文详细介绍了使用Nginx在保持与http服务兼容的情况下部署HTTPS,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值... 目录步骤 1:安装 Nginx步骤 2:获取 SSL 证书步骤 3:手动配置 Nginx步骤 4:测

Tomcat高效部署与性能优化方式

《Tomcat高效部署与性能优化方式》本文介绍了如何高效部署Tomcat并进行性能优化,以确保Web应用的稳定运行和高效响应,高效部署包括环境准备、安装Tomcat、配置Tomcat、部署应用和启动T... 目录Tomcat高效部署与性能优化一、引言二、Tomcat高效部署三、Tomcat性能优化总结Tom

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee