本文主要是介绍LangChain学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1、LangChain主要用于开发LLM应用
chain可以理解成一个pipeline。构建各种各样的pipeline。
2、可以自动定制prompt,解析输出格式
- 优化prompt格式,使得输出结果更好
- llm本身输出的只是一个字符串,自动解析为json等格式
3、memory机制,制作聊天机器人
- llm本身只有输入输出,无法对话,需要将历史对话也输入到prompt才能聊天
- 如对话使用的windowMemory(对话句子), TokensMemory(对话tokens),SummaryMemory(llm对历史对话生成摘要 )
- rag使用的vector data memory
- 记住某人的信息的entity memory
- 数据存为sql数据库
- 多种memory可以混合使用
4、chain
- LLMChain,将模型与prompt融合就是 一个chain
- simpleSequentialChain,单个输入单个输出,串联多个chain
- SequentialChain,多个输入多个输出
- routerChain,中间有逻辑判断,选择走哪一个chain
利用这些chain可以开发各种各样的功能了,如做一个论文阅读助手,不用写很长的prompt,可以将任务拆解为一个一个的chain,然后实现了。
5、文档问答系统
本质是一个RAG
- 特别长的文档(超出llm的token限制了 ),使用embedding和vector进行存储,
将文档拆成很多小块,然后存成向量,将问题与向量库进行匹配,找到相关的内容,然后将内容送入llm进行回答。这样就不用把整个文档给大模型了!!!!
在longchain里面可以拆成几步实现,也可以一步实现。
检索到的内容送入llm有两种方式:
- stuff method:直接把结果送入llm,文档比较小的时候很好用。
- 文档比较大,推荐map-reduce等方法。
6、评估
- 自己构建测试集评价
- 根据QAgenerateChain借助llm自动根据文档生成问题和答案
- 通过langchain.debug=True,看详细的中间 运行结果
- 通过llm自动评价,eval_chain 自动输出结果,自动判断是否正确。比很多公开的指标评价更好,因为答案与回答字符可能完全不同,但是意思是一样的。另外现在的llm能力已经很强了,所以可以做这个事情。
7、Agent
一方面将llm看作知识压缩库;另一方面,将llm看作推理引擎。agent就是后者,把llm和其他api结合,将llm作为一个推理引擎,调用各种api完成各种功能
- 使用agent完成计算(调用计算器),完成百科问答(调用维基百科)
- 使用python agent写代码,并调用python编译器自动输出代码结果
- 利用tool开发自己的agent,如时间查询
8、和LlamaIndex对比
llamaIndex更专注于RAG相关的任务。如问答机器人等
LangChain但是更适合开发应用,增加各种附加功能,当然也可以做RAG。
参考:
https://www.bilibili.com/video/BV1XC411n72m/?p=3&spm_id_from=pageDriver&vd_source=d141bc07699831d8053b781fd6944d5f
https://www.53ai.com/news/qianyanjishu/2024062417063.html
这篇关于LangChain学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!