从零开始:腾讯云轻量应用服务器上部署MaxKB项目(基于LLM大语言模型的知识库问答系统)

本文主要是介绍从零开始:腾讯云轻量应用服务器上部署MaxKB项目(基于LLM大语言模型的知识库问答系统),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用腾讯云轻量应用服务器部署和使用MaxKB项目

前言

一, MaxKB介绍

MaxKB是基于LLM大语言模型的知识库问答系统,旨在成为企业的最强大脑。它支持开箱即用,无缝嵌入到第三方业务系统,并提供多模型支持,包括主流大模型和本地私有大模型,为用户提供智能问答交互体验和灵活性。

二,效果展示

三,部署教程

1.第一步先准备一台服务器,配置尽量高一点,不过也可以低配例如1H1G也行,用低配的服务器的话就得接入第三方的模型了,高配的话就可以直接部署一个大模型作为使用。本次项目我还是依然推荐极具现价比的轻量云服务器,而且本次618活动已经开展了,价格比以往更低。高配可以购买8H16G,低配就买2H2G就行。

618活动地址: https://curl.qcloud.com/7zZN8d4v

2.购买了服务器后,尽量选择Linux环境,我一般用centos,然后这块选择CentOS 7.6就行。

3.购买完成后,我们进入轻量云的控制台,一般等待个3到5分钟后就可以看到服务器部署完成。

控制台地址:console.cloud.tencent.com/lighthouse

4.进入控制台后,找到我们购买的服务器,然后点击登录

5.点击登录后,我们就进入到了OrcaTerm页面,这里输入站内信里的密码,如果不知道密码的话,可以在控制台点击登录旁边的三个点,进行重置密码。

6.密码输入成功后我们就成功进入了服务器,然后复制下面的代码到命令台然后回车运行

curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh

7.运行完成后,就记得到了面板的登录后台和账号密码

8.进入后台后输入账号密码,然后点击左边栏得应用商店,然后选择ai大模型分类,点击maxkb的安装

9.如果不改变端口的话,默认安装即可

10.地址是你的服务器ip+8080端口号。也就是ip:8080(一般来说8080端口是没有开启的,所以你得到轻量云的控制台去设置防火墙的端口)

最后入门教程地址

    

四,注意事项

  1. 防火墙一定要开启对应端口,例如8080端口。

2.项目虽然是开源项目,但是如果商业用途还是要联系作者是否能商用。

五,结语

MaxKB,作为基于LLM大语言模型的知识库问答系统,提供了无与伦比的便利和智能化体验。通过其多模型支持,你可以轻松接入各种主流大模型,包括本地私有大模型(如 Llama 2)、OpenAI、通义千问、Kimi、Azure OpenAI 和百度千帆大模型等,为你的系统赋予更强大的智能能力。开箱即用的特性让您可以快速上传文档、自动爬取在线文档,享受智能问答交互体验。而MaxKB的无缝嵌入能力更是让您能够零编码快速将其整合到第三方业务系统中,提供更便捷、高效的解决方案。可以给你的工作带来更多便利与效率。

这篇关于从零开始:腾讯云轻量应用服务器上部署MaxKB项目(基于LLM大语言模型的知识库问答系统)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1029489

相关文章

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

golang内存对齐的项目实践

《golang内存对齐的项目实践》本文主要介绍了golang内存对齐的项目实践,内存对齐不仅有助于提高内存访问效率,还确保了与硬件接口的兼容性,是Go语言编程中不可忽视的重要优化手段,下面就来介绍一下... 目录一、结构体中的字段顺序与内存对齐二、内存对齐的原理与规则三、调整结构体字段顺序优化内存对齐四、内

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

在不同系统间迁移Python程序的方法与教程

《在不同系统间迁移Python程序的方法与教程》本文介绍了几种将Windows上编写的Python程序迁移到Linux服务器上的方法,包括使用虚拟环境和依赖冻结、容器化技术(如Docker)、使用An... 目录使用虚拟环境和依赖冻结1. 创建虚拟环境2. 冻结依赖使用容器化技术(如 docker)1. 创

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首