本地搭建属于你自己的AI搜索引擎 支持多家AI模型

2024-04-17 06:04

本文主要是介绍本地搭建属于你自己的AI搜索引擎 支持多家AI模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

FreeAskInternet 是一个完全免费、私有且本地运行的搜索聚合器,并使用 MULTI LLM 生成答案,无需 GPU。用户可以提出问题,系统将进行多引擎搜索,并将搜索结果合并到LLM中,并根据搜索结果生成答案。全部免费使用。

项目简介

GitHub:https://github.com/nashsu/FreeAskInternet

我们可以直接可以进行提问,项目将使用 searxng 进行多引擎搜索,并将搜索结果与 ChatGPT3.5 LLM 结合,基于搜索结果生成答案。

所有过程在本地运行,可以完全不需要 GPU 或 OpenAI 或 Google API 密钥。

  • 🈚️完全免费(不需要任何API密钥)
  • 💻 完全本地化(无需GPU,任何计算机都可以运行)
  • 🔐完全私有(所有东西都在本地运行,使用自定义llm)
  • 👻 无需 LLM 硬件即可运行(无需 GPU!)
  • 🤩 使用免费的 ChatGPT3.5 / Qwen / Kimi / ShipuAI(GLM) API(无需 API 密钥!感谢 OpenAI)
  • 🐵 定制LLM(ollama,llama.cpp)支持,是的,我们喜欢ollama!
  • 🚀 使用 Docker Compose 快速轻松地部署
  • 🌐 Web 和移动友好界面,专为 Web 搜索增强的 AI 聊天而设计,允许从任何设备轻松访问。

本地搭建属于你自己的AI搜索引擎 支持多家AI模型插图

基于搜索的人工智能聊天:

本地搭建属于你自己的AI搜索引擎 支持多家AI模型插图1

多LLM模型和自定义LLM(如ollama)支持:

本地搭建属于你自己的AI搜索引擎 支持多家AI模型插图2

怎么运行的?

  1. 系统在FreeAskInternet UI界面(本地运行)中获取用户输入的问题,并调用searxng(本地运行)在多个搜索引擎上进行搜索。
  2. 抓取搜索结果链接内容并传递给ChatGPT3.5/Kimi/Qwen/ZhipuAI/ollama(通过使用自定义llm),让LLM根据此内容作为参考回答用户问题。
  3. 将答案传输到聊天 UI。
  4. 我们支持自定义LLM设置,因此理论上无限的LLM支持。

运行安装:

首先我们需要准备一台Linux服务器,这里我推荐伍六七云:https://www.vps567.com/ 香港2H2G 5M服务器只需要20元

还有国内外高防服务器,免费虚拟主机以及全球CDN加速挂机宝等业务。

并且我们需要在服务器上预先安装好Docker:Docker 一键安装脚本  再执行下面的安装命令。

git clone https://github.com/nashsu/FreeAskInternet.git

cd ./FreeAskInternet

docker-compose up -d

🎉 您现在应该能够在http://localhost:3000上打开 Web 界面。默认情况下不会公开任何其他内容。

注意:如果你的服务器不支持服务Chat GPT,那么你将无法使用免费的Chat GPT搜索结果和AI对话,只能在设置中自定义其他模型的AI接口和模型。伍六七云香港服务器完美支持链接到Chat GPT。

检查是否支持链接到gpt脚本:

bash <(curl -L -s check.unlock.media)

如何更新到最新

cd ./FreeAskInternet

git pull

docker compose down

docker compose rm backend

docker compose rm free_ask_internet_ui

docker image rm nashsu/free_ask_internet

docker image rm nashsu/free_ask_internet_ui

docker-compose up -d

原文链接:https://www.4awl.net/4898.html

这篇关于本地搭建属于你自己的AI搜索引擎 支持多家AI模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/910975

相关文章

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

MySQL双主搭建+keepalived高可用的实现

《MySQL双主搭建+keepalived高可用的实现》本文主要介绍了MySQL双主搭建+keepalived高可用的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,... 目录一、测试环境准备二、主从搭建1.创建复制用户2.创建复制关系3.开启复制,确认复制是否成功4.同

SpringKafka消息发布之KafkaTemplate与事务支持功能

《SpringKafka消息发布之KafkaTemplate与事务支持功能》通过本文介绍的基本用法、序列化选项、事务支持、错误处理和性能优化技术,开发者可以构建高效可靠的Kafka消息发布系统,事务支... 目录引言一、KafkaTemplate基础二、消息序列化三、事务支持机制四、错误处理与重试五、性能优

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

在java中如何将inputStream对象转换为File对象(不生成本地文件)

《在java中如何将inputStream对象转换为File对象(不生成本地文件)》:本文主要介绍在java中如何将inputStream对象转换为File对象(不生成本地文件),具有很好的参考价... 目录需求说明问题解决总结需求说明在后端中通过POI生成Excel文件流,将输出流(outputStre

SpringBoot配置Ollama实现本地部署DeepSeek

《SpringBoot配置Ollama实现本地部署DeepSeek》本文主要介绍了在本地环境中使用Ollama配置DeepSeek模型,并在IntelliJIDEA中创建一个Sprin... 目录前言详细步骤一、本地配置DeepSeek二、SpringBoot项目调用本地DeepSeek前言随着人工智能技

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

OpenManus本地部署实战亲测有效完全免费(最新推荐)

《OpenManus本地部署实战亲测有效完全免费(最新推荐)》文章介绍了如何在本地部署OpenManus大语言模型,包括环境搭建、LLM编程接口配置和测试步骤,本文给大家讲解的非常详细,感兴趣的朋友一... 目录1.概况2.环境搭建2.1安装miniconda或者anaconda2.2 LLM编程接口配置2

使用DeepSeek搭建个人知识库(在笔记本电脑上)

《使用DeepSeek搭建个人知识库(在笔记本电脑上)》本文介绍了如何在笔记本电脑上使用DeepSeek和开源工具搭建个人知识库,通过安装DeepSeek和RAGFlow,并使用CherryStudi... 目录部署环境软件清单安装DeepSeek安装Cherry Studio安装RAGFlow设置知识库总