聊聊最近“大火”的RAG

2024-04-09 21:28
文章标签 聊聊 最近 大火 rag

本文主要是介绍聊聊最近“大火”的RAG,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景


LLM支持的最强大的应用程序之一是复杂的问答(Q&A)聊天机器人。这些应用程序(聊天机器人)可以回答有关特定来源信息的问题。其中使用的技术就是一种称为检索增强生成(RAG)的技术。

本文不涉及代码输出,纯概念解释说明。文末会贴出另一篇文章的地址,里面有代码。

什么是RAG


RAG是一种利用检索技术来增强大语言模型(LLM)的技术。它通过从某些数据源检索信息,并将这些信息作为上下文提供给LLM,从而改进生成的答案。

RAG的基本流程包括:

  1. 分块与向量化:将文本数据分割成块,并使用transformer编码器模型将这些块编码为向量,以便于搜索。

  2. 搜索索引:为这些向量建立索引,以便于快速检索。

  3. 重排和过滤:对检索到的信息进行排序和过滤,以提供最相关的上下文给LLM。

  4. 查询转换:将用户查询转换为模型可以理解的格式。

  5. 聊天引擎:用于与用户进行交互,接收用户输入并返回回答。

  6. 查询路由:决定哪些查询应该被发送到LLM进行回答。

  7. 智能体:负责协调各个组件,确保系统的顺畅运行。

  8. 响应合成:将LLM的输出与检索到的上下文合并,生成最终的回答。

RAG的优点在于它能够结合检索技术的准确性和LLM的生成能力,提供更加准确和丰富的回答。然而,它也面临一些挑战,如知识的局限性和数据安全性问题。知识的局限性意味着模型的知识仅限于其训练数据,可能无法覆盖所有领域的知识。数据安全性问题则涉及到将私域数据上传到第三方平台的风险,这对于注重数据安全的企业来说是一个重要的考虑因素。

简单来说就是:大模型对于没有学习过的知识是回答不了的,或者说回答不准确,不相关,利用RAG技术就可以很好的解决这种问题。

RAG架构


典型的RAG应用程序有两个主要组件:

  1. 索引:从外部数据源引入数据并制作索引。通常我们会预先处理好数据。

  2. 检索和生成:它需要用户在运行时查询并从索引中检索相关数据,然后将其传递给模型。

从原始数据到答案最常见的完整序列如下所示:

索引(Indexing)

  1. 加载(Load):首先我们需要加载数据。这是使用DocumentLoaders完成的。

  2. 切片(Split):文本 分离器将大块分成更小的块。这对于以下方面都很有用 索引数据并将其传递到模型,因为大块更难搜索,并且不适合模型有限的上下文窗口。

  3. 存储(Store):我们需要某个地方来存储和索引我们的拆分,以便以后可以搜索它们。这通常是使用VectorStore(向量数据库)和Embeddings(词嵌入)模型完成的。

图片

检索和生成(Retrieval and generation)
  1. 检索(Retrieve):给定用户输入,使用Retriever从存储中检索相关切片。

  2. 生成(Generate):ChatModel / LLM使用包含问题和检索数据的提示。

图片

实现自己的RAG应用


“智能客服”是RAG的典型应用之一,这块实际上已经介绍过了,看下面这篇文章就行。

【可能是全网最丝滑的LangChain教程】四、快速入门Retrieval Chain

这篇关于聊聊最近“大火”的RAG的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/889257

相关文章

poj1330(LCA最近公共祖先)

题意:求最近公共祖先 思路:之前学习了树链剖分,然后我就用树链剖分的一小部分知识就可以解这个题目了,记录每个结点的fa和depth。然后查找时,每次将depth大的结点往上走直到x = y。 代码如下: #include<iostream>#include<algorithm>#include<stdio.h>#include<math.h>#include<cstring>

最近心情有点复杂:论心态

一月一次的彷徨又占据了整个身心;彷徨源至不自信;而不自信则是感觉自己的价值没有很好的实现亦或者说是自己不认可自己的目前的生活和状态吧。 我始终相信一句话:任何人的生活形态完全是由自己决定的;外在的总归不能直达一个人的内心深处。所以少年 为了自己想要的生活 多坚持努力吧、不为别人只为自己心中的那一丝执着。 由此我看到了一个故事: 一个心情烦躁的人去拜访禅师。他问禅师:我这辈子就这么注定了吗?您

聊聊说话的习惯

1 在日常生活中,每个人都有固定的说话习惯。心理学研究表明,通过一个人的说话习惯,也可以分析出他的性格特点。对于每一个人来讲,说话习惯已经融为他们生活中的一部分。在社交活动中,一些不良的说话习惯很可能会给他们带来麻烦。因此,了解说话习惯对心理活动的影响是十分有必要的。 2 具有顺畅的说话习惯的人,大多思路清晰、语速适中、用词准确并且声声人耳,是典型的顺畅型说话方式这种类型的人要么不说话,要么

在二叉树中找到两个节点的最近公共祖先(基于Java)

如题  题解 public int lowestCommonAncestor(TreeNode root, int o1, int o2) {//记录遍历到的每个节点的父节点。Map<Integer, Integer> parent = new HashMap<>();Queue<TreeNode> queue = new LinkedList<>();parent.put(roo

聊聊分布式,再讨论分布式解决方案

前言 最近很久没有写博客了,一方面是因为公司事情最近比较忙,另外一方面是因为在进行 CAP 的下一阶段的开发工作,不过目前已经告一段落了。 接下来还是开始我们今天的话题,说说分布式事务,或者说是我眼中的分布式事务,因为每个人可能对其的理解都不一样。 分布式事务是企业集成中的一个技术难点,也是每一个分布式系统架构中都会涉及到的一个东西,特别是在微服务架构中,几乎可以说是无法避免,本文就分布式事

我的第2个AI项目-RAG with Gemma hosted on HuggingFace and Weaviate in DSPy

目录 项目简介概述时间kaggle地址主要工作和收获技术栈数据集模型表现 未来项目说明思路和原则为什么不把现在的项目做深一点?博客风格转变 bug修复版本兼容问题 项目简介 概述 本项目简要介绍了如何使用 DSPy 构建一个简单的 RAG 管道,且利用了托管在 Hugging Face 上的 Gemma LLM模型 和 Weaviate 向量数据库。 时间 2024.09

算法图解(8~10贪心,动态规划,K最近邻算法)

贪心算法 在每一步都选择局部最优解,从而期望最终得到全局最优解。 贪心算法并不总能保证全局最优解,因此需要满足以下两个条件: 贪心选择性质:可以通过局部最优选择构造出全局最优解。最优子结构:问题的最优解包含其子问题的最优解。 实例:给定面额的硬币,用最少硬币凑出指定金额 int minCoins(vector<int>& coins, int amount) {int count = 0

聊聊资源调度

资源调度 般分为两个阶段: 是实现物理资源的虚拟化(即资源的抽象)于当前机器的性能越来越好,硬件配置越来越高,直接用物理机跑业务比较浪费,所以将物理机分割成更小单位的虚拟机,这样可以显著提升机器的利用效率,在公司内部一般采用容器技术来隔离资源 是将资源虚拟化后进 步在时间和空间上实现更细粒度的编排 ,优化资源的使用。 1 .一些数据 如果公司的几万台机器都是物理机,那么资源的使用率稍低: CP

jmeter压力测试,通过LLM利用RAG实现知识库问答,NEO4J部署,GraphRAG以知识图谱在查询时增强提示实现更准确的知识库问答(9/7)

前言         这周也是杂七杂八的一天(高情商:我是一块砖,哪里需要往哪里搬),首先是接触了jemter这个压力测试工具,然后帮公司的AIGC项目编写使用手册和问答手册的第一版,并通过这个平台的智能体实现知识库问答的功能展示,以及部分个人扩展和思考(NEO4J创建知识图谱的GraphRAG)。 Jmeter         Jmeter是一个压力测试工具,一开始导师叫我熟悉的时候我还说

救命!我已经彻底被最近的FLUX模型征服了

这是一期FLUX模型配套的罗拉模型推荐,这个大模型真的很香,尤其是对于人物的手部处理,推荐大家去尝试下,我已经爱上这个大模型了。 ① Flux魅影超模 https://www.liblib.art/modelinfo/15818662ba2e443d9b4f9a87c13fff55 关键词:照片上是一位优雅的年轻女子,一头棕色卷发,身穿米色上衣,戴着金耳环。她背对着相机,背景是浅色的。重点是