如何在AutoGen中使用自定义的大模型

2024-08-27 01:12

本文主要是介绍如何在AutoGen中使用自定义的大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

也可在我的个人博客上查看:https://panzhixiang.cn/2024/autogen-custom-model/

背景

AutoGen原生只支持国外的大模型,如OpenAI, Claude, Mistral等,不支持国内的大模型。但是国内有一些大模型做的还是不错的,尤其是考虑的价格因素之后,国内的大模型性价比很好,我这两天就在想办法集成国内的大模型。

虽然AutoGen不直接支持国内的大模型,但是它支持自定义大模型(custom model)。可以参考这个博客:AutoGen with Custom Models: Empowering Users to Use Their Own Inference Mechanism

但是博客中的案例代码不是很直观,我在这篇博客中记录一下具体怎么接入国内的大模型,并给出案例代码。

自定义模型类

AutoGen允许自定义模型类,只要符合它的协议就行。

具体的协议要求在 autogen.oai.client.ModelClient 中,代码如下:

class ModelClient(Protocol):"""A client class must implement the following methods:- create must return a response object that implements the ModelClientResponseProtocol- cost must return the cost of the response- get_usage must return a dict with the following keys:- prompt_tokens- completion_tokens- total_tokens- cost- modelThis class is used to create a client that can be used by OpenAIWrapper.The response returned from create must adhere to the ModelClientResponseProtocol but can be extended however needed.The message_retrieval method must be implemented to return a list of str or a list of messages from the response."""RESPONSE_USAGE_KEYS = ["prompt_tokens", "completion_tokens", "total_tokens", "cost", "model"]class ModelClientResponseProtocol(Protocol):class Choice(Protocol):class Message(Protocol):content: Optional[str]message: Messagechoices: List[Choice]model: strdef create(self, params: Dict[str, Any]) -> ModelClientResponseProtocol: ...  # pragma: no coverdef message_retrieval(self, response: ModelClientResponseProtocol) -> Union[List[str], List[ModelClient.ModelClientResponseProtocol.Choice.Message]]:"""Retrieve and return a list of strings or a list of Choice.Message from the response.NOTE: if a list of Choice.Message is returned, it currently needs to contain the fields of OpenAI's ChatCompletion Message object,since that is expected for function or tool calling in the rest of the codebase at the moment, unless a custom agent is being used."""...  # pragma: no coverdef cost(self, response: ModelClientResponseProtocol) -> float: ...  # pragma: no cover@staticmethoddef get_usage(response: ModelClientResponseProtocol) -> Dict:"""Return usage summary of the response using RESPONSE_USAGE_KEYS."""...  # pragma: no cover

直白点说,这个协议有四个要求:

  1. 自定义的类中有create()函数,并且这个函数的返回应当是ModelClientResponseProtocol的一种实现
  2. 要有message_retrieval()函数,用于处理响应,并且返回一个列表,聊表中包含字符串或者message对象
  3. 要有cost()函数,返回消耗的费用
  4. 要有get_usage()函数,返回一些字典,key应该来自于[“prompt_tokens”, “completion_tokens”, “total_tokens”, “cost”, “model”]。这个主要用于分析,如果不需要分析使用情况,可以反馈空。

实际案例

我在这里使用的UNIAPI(一个大模型代理)托管的claude模型,但是国内的大模型可以完全套用下面的代码。

代码如下:

"""
本代码用于展示如何自定义一个模型,本模型基于UniAPI,
但是任何支持HTTPS调用的大模型都可以套用以下代码
"""from autogen.agentchat import AssistantAgent, UserProxyAgent
from autogen.oai.openai_utils import config_list_from_json
from types import SimpleNamespace
import requests
import osclass UniAPIModelClient:def __init__(self, config, **kwargs):print(f"CustomModelClient config: {config}")self.api_key = config.get("api_key")self.api_url = "https://api.uniapi.me/v1/chat/completions"self.model = config.get("model", "gpt-3.5-turbo")self.max_tokens = config.get("max_tokens", 1200)self.temperature = config.get("temperature", 0.8)self.top_p = config.get("top_p", 1)self.presence_penalty = config.get("presence_penalty", 1)print(f"Initialized CustomModelClient with model {self.model}")def create(self, params):headers = {"Authorization": f"Bearer {self.api_key}","Content-Type": "application/json",}data = {"max_tokens": self.max_tokens,"model": self.model,"temperature": self.temperature,"top_p": self.top_p,"presence_penalty": self.presence_penalty,"messages": params.get("messages", []),}response = requests.post(self.api_url, headers=headers, json=data)response.raise_for_status()  # Raise an exception for HTTP errorsapi_response = response.json()# Convert API response to SimpleNamespace for compatibilityclient_response = SimpleNamespace()client_response.choices = []client_response.model = self.modelfor choice in api_response.get("choices", []):client_choice = SimpleNamespace()client_choice.message = SimpleNamespace()client_choice.message.content = choice.get("message", {}).get("content")client_choice.message.function_call = Noneclient_response.choices.append(client_choice)return client_responsedef message_retrieval(self, response):"""Retrieve the messages from the response."""choices = response.choicesreturn [choice.message.content for choice in choices]def cost(self, response) -> float:"""Calculate the cost of the response."""# Implement cost calculation if available from your APIresponse.cost = 0return 0@staticmethoddef get_usage(response):# Implement usage tracking if available from your APIreturn {}config_list_custom = config_list_from_json("UNIAPI_CONFIG_LIST.json",filter_dict={"model_client_cls": ["UniAPIModelClient"]},
)assistant = AssistantAgent("assistant", llm_config={"config_list": config_list_custom})
user_proxy = UserProxyAgent("user_proxy",code_execution_config={"work_dir": "coding","use_docker": False,},
)assistant.register_model_client(model_client_cls=UniAPIModelClient)
user_proxy.initiate_chat(assistant,message="Write python code to print hello world",
)

如果想要修改为其他模型,唯一的要求是,这个模型支持HTTP调用,然后把 self.api_url = "https://api.uniapi.me/v1/chat/completions" 替换成你自己的值。

在运行上面的案例代码之前,需要创建 UNIAPI_CONFIG_LIST.json 文件,并且可以被程序读取到。其格式如下:

[{"model": "claude-3-5-sonnet-20240620","api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxx","temperature": 0.8,"max_tokens": 4000,"model_client_cls": "UniAPIModelClient"}
]

其实这个json本质上就是一个大模型的配置,指定一些必要的参数,其中 model_client_cls 的值要是自定义的模型类的名字,这里不能写错。

以上就是如何在AutoGen使用自定义大模型的全部内容了。

我在这篇博客中只给了具体的案例代码,没有关于更深层次的解读,感兴趣可以阅读官网的文档。

这里想吐槽一下,AutoGen的文档不咋地,不少案例代码都是旧的,没有跟着代码及时更新,有不少坑。

这篇关于如何在AutoGen中使用自定义的大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110216

相关文章

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

SpringBoot中使用 ThreadLocal 进行多线程上下文管理及注意事项小结

《SpringBoot中使用ThreadLocal进行多线程上下文管理及注意事项小结》本文详细介绍了ThreadLocal的原理、使用场景和示例代码,并在SpringBoot中使用ThreadLo... 目录前言技术积累1.什么是 ThreadLocal2. ThreadLocal 的原理2.1 线程隔离2

Python itertools中accumulate函数用法及使用运用详细讲解

《Pythonitertools中accumulate函数用法及使用运用详细讲解》:本文主要介绍Python的itertools库中的accumulate函数,该函数可以计算累积和或通过指定函数... 目录1.1前言:1.2定义:1.3衍生用法:1.3Leetcode的实际运用:总结 1.1前言:本文将详

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

浅析如何使用Swagger生成带权限控制的API文档

《浅析如何使用Swagger生成带权限控制的API文档》当涉及到权限控制时,如何生成既安全又详细的API文档就成了一个关键问题,所以这篇文章小编就来和大家好好聊聊如何用Swagger来生成带有... 目录准备工作配置 Swagger权限控制给 API 加上权限注解查看文档注意事项在咱们的开发工作里,API

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

Java数字转换工具类NumberUtil的使用

《Java数字转换工具类NumberUtil的使用》NumberUtil是一个功能强大的Java工具类,用于处理数字的各种操作,包括数值运算、格式化、随机数生成和数值判断,下面就来介绍一下Number... 目录一、NumberUtil类概述二、主要功能介绍1. 数值运算2. 格式化3. 数值判断4. 随机

Spring排序机制之接口与注解的使用方法

《Spring排序机制之接口与注解的使用方法》本文介绍了Spring中多种排序机制,包括Ordered接口、PriorityOrdered接口、@Order注解和@Priority注解,提供了详细示例... 目录一、Spring 排序的需求场景二、Spring 中的排序机制1、Ordered 接口2、Pri

Springboot 中使用Sentinel的详细步骤

《Springboot中使用Sentinel的详细步骤》文章介绍了如何在SpringBoot中使用Sentinel进行限流和熔断降级,首先添加依赖,配置Sentinel控制台地址,定义受保护的资源,... 目录步骤 1: 添加 Sentinel 依赖步骤 2: 配置 Sentinel步骤 3: 定义受保护的

Python中Markdown库的使用示例详解

《Python中Markdown库的使用示例详解》Markdown库是一个用于处理Markdown文本的Python工具,这篇文章主要为大家详细介绍了Markdown库的具体使用,感兴趣的... 目录一、背景二、什么是 Markdown 库三、如何安装这个库四、库函数使用方法1. markdown.mark