LangChain + Qwen(DashScope)

2024-03-20 16:28
文章标签 langchain qwen dashscope

本文主要是介绍LangChain + Qwen(DashScope),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 引言
      • DashScope API KEY
      • 关于 DashScope 和 ModelScope
    • 代码
    • 可用模型及费用
      • 模型说明
      • 计费单价
      • 免费额度


引言

常见的 RAG 示例,一般使用 OpenAI,你也可以使用 Qwen 作为 LLM。
在 LangChain 中,调用 Tongyi 来实现。(而不是 Qwen)

官方文档描述:
https://python.langchain.com/docs/integrations/llms/tongyi
中文:http://docs.autoinfra.cn/docs/integrations/llms/tongyi


如果你想看 langchain 支持哪些 llm,也可以前往代码安装包查看,我的地址是:
~/miniconda3/lib/python3.11/site-packages/langchain_community/llms


DashScope API KEY

你需要在阿里云平台,创建 DashScope API KEY。
创建前,需要经过实名认证。

https://help.aliyun.com/document_detail/611472.html


关于 DashScope 和 ModelScope

参考文章:https://developer.aliyun.com/article/1377012

ModelScope是一个开源技术社区,从其立场来看,它并不承担营收的使命。DashScope可以看作是ModelScope的“孪生兄弟”,它们有着相同的底层架构。
两者的区别在于,ModelScope上的许多开发者是基于模型的checkpoint进行Fine-tune,而DashScope更多地为模型提供商(如百川智能、智谱AI、Stability.AI等)提供服务,通过API的方式向下游厂商提供Fine-tune和Influence链路服务。

ModelScope和DashScope是模型的一体两面,都是MaaS(Model as a Service)的一部分。
相对较小的小模型走开源路线,相对较大的大模型则走商业路线。
例如,智谱AI的ChatGLM-6B模型就在ModelScope上进行了开源,并且已经形成了一定的用户规模和影响力。
未来,它的13B、50B、130B模型将通过DashScope进行商业化落地。
无独有偶,阿里云的通义千问也是同样的情况,Qwen-7B模型是开源的,而Qwen-50B模型未来可能会通过DashScope去做API模式的商业化。


代码

import os
from langchain_community.llms import TongyiDASHSCOPE_API_KEY = 'sk-xxxx'
os.environ["DASHSCOPE_API_KEY"] = DASHSCOPE_API_KEYtext = "What NFL team won the Super Bowl in the year Justin Bieber was born?"
Tongyi().invoke(text)  

from langchain_core.prompts import PromptTemplate# llm = Tongyi()
llm = Tongyi(dashscope_api_key=DASHSCOPE_API_KEY)# 指定模型
llm=Tongyi(model_name="qwen-plus",temperature=0.1)template = """Question: {question}Answer: Let's think step by step."""prompt = PromptTemplate.from_template(template)chain = prompt | llmquestion = "What NFL team won the Super Bowl in the year Justin Bieber was born?"chain.invoke({"question": question})'Justin Bieber was born on March 1, 1994. The Super Bowl that took place in the same calendar year was Super Bowl XXVIII, which was played on January 30, 1994. The winner of Super Bowl XXVIII was the Dallas Cowboys, who defeated the Buffalo Bills with a score of 30-13.'

可用模型及费用

本文记录于 2024-03-19

https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-thousand-questions-metering-and-billing


模型说明

模型名称模型简介模型输入/输出限制
qwen-turbo通义千问超大规模语言模型,支持中文、英文等不同语言输入。模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens
qwen-plus通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入。模型支持32k tokens上下文,为了保证正常的使用和输出,API限定用户输入为30k tokens
qwen-max通义千问千亿级别超大规模语言模型**,**支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级,如果希望使用稳定版本,请使用qwen-max-1201。模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens
qwen-max-1201通义千问千亿级别超大规模语言模型**,**支持中文、英文等不同语言输入。该模型为qwen-max的快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。模型支持8k tokens上下文,为了保证正常的使用和输出,API限定用户输入为6k tokens
qwen-max-longcontext通义千问千亿级别超大规模语言模型**,**支持中文、英文等不同语言输入。模型支持30k tokens上下文,为了保证正常的使用和输出,API限定用户输入为28k tokens

计费单价

模型服务: 通义千问

模型名计费单价
qwen-turbo
qwen-plus0.02元/1,000 tokens
qwen-max0.12元/1,000 tokens
qwen-max-1201同上
qwen-max-longcontext同上

说明

  • qwen-turbo原来为qwen-v1(已弃用)。
    qwen-v1计费与qwen-turbo保持一致。
  • qwen-plus原来为qwen-plus-v1(已弃用)。
    qwen-plus-v1计费与qwen-plus保持一致。

免费额度

模型名免费额度
qwen-turbo开通DashScope即获赠总计 2,000,000 tokens限时免费使用额度,有效期 180 天。
qwen-plus开通DashScope即获赠总计 1,000,000 tokens限时免费使用额度,有效期 180 天。
qwen-max开通DashScope即获赠总计1,000,000 tokens限时免费使用额度,有效期30天。
qwen-max-1201同上
qwen-max-longcontext同上

重要

免费额度将在开通服务后的下一个整点生效。
例如,您在15:30开通灵积服务,您的免费额度将在16:00后生效,将抵扣您16:00后产生的账单费用。


伊织 2024-03-19(二)

这篇关于LangChain + Qwen(DashScope)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/830041

相关文章

LLM大模型教程:langchain 教程

软件安装 pip install pymupdfpip install langchainpip install langchain-cliconda install -c pytorch -c nvidia faiss-gpu=1.7.4 mkl=2021 blas=1.0=mkl 由于langchain不支持qwen模型,我们需要自定义模型 from typing import A

基于LangChain+LLM的相关技术研究及初步实践

01 概述 大模型概述 大模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。大模型在各种领域都有广泛的应用,包括自然语言处理、计算机视觉、语音识别和推荐系统等。大模型通过训练海量数据来学习复杂的模式和特征,具有更强大的泛化能力,可以对未见过的数据

langchain 《斗破苍穹》智谱 RAG 问题搜索

目录 代码 项目介绍 模型对比实验 分块方法对比 检索方法对比 结果 10条问题 15条问题 局限性 代码 https://github.com/5zjk5/prompt-engineering/tree/master 项目介绍 《斗破苍穹》小说 RAG 问答,爬虫爬取整部小说章节,并分别保存到不同的数据源中。 txt,pdf,markdown,word。

通义千问Qwen 2大模型的预训练和后训练范式解析

LLMs,也就是大型语言模型,现在已经发展得挺厉害的。记得最开始的时候,我们只有GPT这样的模型,但现在,我们有了一些更复杂的、开放权重的模型。以前,训练这些模型的时候,我们主要就是做预训练,但现在不一样了,我们还会加上后训练这个阶段。 咱们今天就以通义千问Qwen 2这个模型为例,来好好分析一下Qwen 2的预训练和后训练都是怎么搞的。它在大型语言模型界里算是挺能打的。不过,虽然它很强

LangChain教程 - 系列文章

LangChain 是一个专为开发大语言模型(LLM)应用程序设计的框架。它提供了丰富的模块化工具,支持开发者轻松构建、管理和部署复杂的 LLM 应用程序。LangChain 允许将语言模型、提示模板、输出解析器等组件进行无缝集成,同时支持链式调用和复杂任务的处理,适用于对话系统、内容生成、翻译等多种场景。 系列文章索引: LangChain教程 - 介绍 LangChain教程 - 使用 LC

LangChain学习

1、LangChain主要用于开发LLM应用 chain可以理解成一个pipeline。构建各种各样的pipeline。 2、可以自动定制prompt,解析输出格式 优化prompt格式,使得输出结果更好llm本身输出的只是一个字符串,自动解析为json等格式 3、memory机制,制作聊天机器人 llm本身只有输入输出,无法对话,需要将历史对话也输入到prompt才能聊天如对话

LLM代码实现-Qwen(挂载知识库)

为什么要挂载知识库? LLM 在回答用户的问题时可能会产生幻觉,或者由于训练数据中不包含用户想要的内容而无法回答,通常情况下我们可以选择微调模型或者外挂知识库来缓解这类问题。微调模型的对数据和算力都有一定的要求,而知识库的门槛会更低一些,所以通常情况下会选择外挂知识库高效地来解决这类问题。 挂载知识库其实相当于引入外部知识,为了扩展语言模型以减少歧义,从大型文本数据库中检索相关文档。通常将输入

【LangChain】深入解析LangChain:如何使用输出解析器优化结果处理

😁 作者简介:一名前端爱好者,致力学习前端开发技术 ⭐️个人主页:夜宵饽饽的主页 ❔ 系列专栏:JavaScript小贴士 👐学习格言:成功不是终点,失败也并非末日,最重要的是继续前进的勇气 ​🔥​前言: 在使用langchain的过程中,输出解析器时非常关键的,可以帮助我们将复杂的模型响应转换为结构化、易于使用的数据格式,这是我自己的学习笔记,希望可以帮助到大家,欢迎大家的

Qwen-7B-Chat大模型安装训练推理-helloworld

初始大模型之helloworld编写 开发环境:modelscope GPU版本上测试的,GPU免费36小时 ps:可以不用conda直接用环境自带的python环境使用 魔搭社区 安装conda wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh 1.2 bash Minicond

How can I change from OpenAI to ChatOpenAI in langchain and Flask?

题意:“在 LangChain 和 Flask 中,如何将 OpenAI 更改为 ChatOpenAI?” 问题背景: This is an implementation based on langchain and flask and refers to an implementation to be able to stream responses from the OpenAI