langchain-chatchat加载Azure Open AI

2024-04-10 23:36

本文主要是介绍langchain-chatchat加载Azure Open AI,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.找到knowledge_base_chat.py文件中的get_ChatOpenAI函数
在这里插入图片描述
2.按crtl进入get_ChatOpenAI函数位置
在这里插入图片描述
3.注释原先的get_ChatOpenAI函数,修改成以下内容:

def get_ChatOpenAI(model_name: str,temperature: float,streaming: bool = True,callbacks: List[Callable] = [],verbose: bool = True,**kwargs: Any,
) -> AzureChatOpenAI:config = get_model_worker_config(model_name)# if model_name == "openai-api":#     model_name = config.get("model_name")model = AzureChatOpenAI(streaming=streaming,verbose=verbose,callbacks=callbacks,openai_api_key=config.get("api_key"),openai_api_base=config.get("api_base_url"),deployment_name=config.get("model_name"),temperature=temperature,# openai_proxy=config.get("openai_proxy"),openai_api_version="2024-02-01",# openai_api_type="azure",** kwargs)return model

4.找到model_config.py文件
在这里插入图片描述
5.增加以下内容
(1)创建.env文件,里面放入自己在微软申请的Azure Open AI
在这里插入图片描述

(2)加载.env文件,在model_config.py文件加上以下代码

from dotenv import load_dotenv
load_dotenv()

在这里插入图片描述
(3)修改openai-api,在model_config.py文件加上以下代码

ONLINE_LLM_MODEL = {"openai-api": {"model_name": "otx_dmed_gpt4","api_base_url": os.getenv("AZURE_OAI_ENDPOINT"),"api_key": os.getenv("AZURE_OAI_KEY"),"openai_proxy": "",},

在这里插入图片描述
6.直接python startup.py -a运行即可调用Azure Open AI

这篇关于langchain-chatchat加载Azure Open AI的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/892467

相关文章

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

关于Spring @Bean 相同加载顺序不同结果不同的问题记录

《关于Spring@Bean相同加载顺序不同结果不同的问题记录》本文主要探讨了在Spring5.1.3.RELEASE版本下,当有两个全注解类定义相同类型的Bean时,由于加载顺序不同,最终生成的... 目录问题说明测试输出1测试输出2@Bean注解的BeanDefiChina编程nition加入时机总结问题说明

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

SpringBoot整合DeepSeek实现AI对话功能

《SpringBoot整合DeepSeek实现AI对话功能》本文介绍了如何在SpringBoot项目中整合DeepSeekAPI和本地私有化部署DeepSeekR1模型,通过SpringAI框架简化了... 目录Spring AI版本依赖整合DeepSeek API key整合本地化部署的DeepSeek

Ollama整合open-webui的步骤及访问

《Ollama整合open-webui的步骤及访问》:本文主要介绍如何通过源码方式安装OpenWebUI,并详细说明了安装步骤、环境要求以及第一次使用时的账号注册和模型选择过程,需要的朋友可以参考... 目录安装环境要求步骤访问选择PjrIUE模型开始对话总结 安装官方安装地址:https://docs.

PyCharm接入DeepSeek实现AI编程的操作流程

《PyCharm接入DeepSeek实现AI编程的操作流程》DeepSeek是一家专注于人工智能技术研发的公司,致力于开发高性能、低成本的AI模型,接下来,我们把DeepSeek接入到PyCharm中... 目录引言效果演示创建API key在PyCharm中下载Continue插件配置Continue引言

Ubuntu系统怎么安装Warp? 新一代AI 终端神器安装使用方法

《Ubuntu系统怎么安装Warp?新一代AI终端神器安装使用方法》Warp是一款使用Rust开发的现代化AI终端工具,该怎么再Ubuntu系统中安装使用呢?下面我们就来看看详细教程... Warp Terminal 是一款使用 Rust 开发的现代化「AI 终端」工具。最初它只支持 MACOS,但在 20

SpringBoot项目启动后自动加载系统配置的多种实现方式

《SpringBoot项目启动后自动加载系统配置的多种实现方式》:本文主要介绍SpringBoot项目启动后自动加载系统配置的多种实现方式,并通过代码示例讲解的非常详细,对大家的学习或工作有一定的... 目录1. 使用 CommandLineRunner实现方式:2. 使用 ApplicationRunne

SpringBoot项目删除Bean或者不加载Bean的问题解决

《SpringBoot项目删除Bean或者不加载Bean的问题解决》文章介绍了在SpringBoot项目中如何使用@ComponentScan注解和自定义过滤器实现不加载某些Bean的方法,本文通过实... 使用@ComponentScan注解中的@ComponentScan.Filter标记不加载。@C