如何在AutoGen中使用自定义的大模型

2024-08-27 01:12

本文主要是介绍如何在AutoGen中使用自定义的大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

也可在我的个人博客上查看:https://panzhixiang.cn/2024/autogen-custom-model/

背景

AutoGen原生只支持国外的大模型,如OpenAI, Claude, Mistral等,不支持国内的大模型。但是国内有一些大模型做的还是不错的,尤其是考虑的价格因素之后,国内的大模型性价比很好,我这两天就在想办法集成国内的大模型。

虽然AutoGen不直接支持国内的大模型,但是它支持自定义大模型(custom model)。可以参考这个博客:AutoGen with Custom Models: Empowering Users to Use Their Own Inference Mechanism

但是博客中的案例代码不是很直观,我在这篇博客中记录一下具体怎么接入国内的大模型,并给出案例代码。

自定义模型类

AutoGen允许自定义模型类,只要符合它的协议就行。

具体的协议要求在 autogen.oai.client.ModelClient 中,代码如下:

class ModelClient(Protocol):"""A client class must implement the following methods:- create must return a response object that implements the ModelClientResponseProtocol- cost must return the cost of the response- get_usage must return a dict with the following keys:- prompt_tokens- completion_tokens- total_tokens- cost- modelThis class is used to create a client that can be used by OpenAIWrapper.The response returned from create must adhere to the ModelClientResponseProtocol but can be extended however needed.The message_retrieval method must be implemented to return a list of str or a list of messages from the response."""RESPONSE_USAGE_KEYS = ["prompt_tokens", "completion_tokens", "total_tokens", "cost", "model"]class ModelClientResponseProtocol(Protocol):class Choice(Protocol):class Message(Protocol):content: Optional[str]message: Messagechoices: List[Choice]model: strdef create(self, params: Dict[str, Any]) -> ModelClientResponseProtocol: ...  # pragma: no coverdef message_retrieval(self, response: ModelClientResponseProtocol) -> Union[List[str], List[ModelClient.ModelClientResponseProtocol.Choice.Message]]:"""Retrieve and return a list of strings or a list of Choice.Message from the response.NOTE: if a list of Choice.Message is returned, it currently needs to contain the fields of OpenAI's ChatCompletion Message object,since that is expected for function or tool calling in the rest of the codebase at the moment, unless a custom agent is being used."""...  # pragma: no coverdef cost(self, response: ModelClientResponseProtocol) -> float: ...  # pragma: no cover@staticmethoddef get_usage(response: ModelClientResponseProtocol) -> Dict:"""Return usage summary of the response using RESPONSE_USAGE_KEYS."""...  # pragma: no cover

直白点说,这个协议有四个要求:

  1. 自定义的类中有create()函数,并且这个函数的返回应当是ModelClientResponseProtocol的一种实现
  2. 要有message_retrieval()函数,用于处理响应,并且返回一个列表,聊表中包含字符串或者message对象
  3. 要有cost()函数,返回消耗的费用
  4. 要有get_usage()函数,返回一些字典,key应该来自于[“prompt_tokens”, “completion_tokens”, “total_tokens”, “cost”, “model”]。这个主要用于分析,如果不需要分析使用情况,可以反馈空。

实际案例

我在这里使用的UNIAPI(一个大模型代理)托管的claude模型,但是国内的大模型可以完全套用下面的代码。

代码如下:

"""
本代码用于展示如何自定义一个模型,本模型基于UniAPI,
但是任何支持HTTPS调用的大模型都可以套用以下代码
"""from autogen.agentchat import AssistantAgent, UserProxyAgent
from autogen.oai.openai_utils import config_list_from_json
from types import SimpleNamespace
import requests
import osclass UniAPIModelClient:def __init__(self, config, **kwargs):print(f"CustomModelClient config: {config}")self.api_key = config.get("api_key")self.api_url = "https://api.uniapi.me/v1/chat/completions"self.model = config.get("model", "gpt-3.5-turbo")self.max_tokens = config.get("max_tokens", 1200)self.temperature = config.get("temperature", 0.8)self.top_p = config.get("top_p", 1)self.presence_penalty = config.get("presence_penalty", 1)print(f"Initialized CustomModelClient with model {self.model}")def create(self, params):headers = {"Authorization": f"Bearer {self.api_key}","Content-Type": "application/json",}data = {"max_tokens": self.max_tokens,"model": self.model,"temperature": self.temperature,"top_p": self.top_p,"presence_penalty": self.presence_penalty,"messages": params.get("messages", []),}response = requests.post(self.api_url, headers=headers, json=data)response.raise_for_status()  # Raise an exception for HTTP errorsapi_response = response.json()# Convert API response to SimpleNamespace for compatibilityclient_response = SimpleNamespace()client_response.choices = []client_response.model = self.modelfor choice in api_response.get("choices", []):client_choice = SimpleNamespace()client_choice.message = SimpleNamespace()client_choice.message.content = choice.get("message", {}).get("content")client_choice.message.function_call = Noneclient_response.choices.append(client_choice)return client_responsedef message_retrieval(self, response):"""Retrieve the messages from the response."""choices = response.choicesreturn [choice.message.content for choice in choices]def cost(self, response) -> float:"""Calculate the cost of the response."""# Implement cost calculation if available from your APIresponse.cost = 0return 0@staticmethoddef get_usage(response):# Implement usage tracking if available from your APIreturn {}config_list_custom = config_list_from_json("UNIAPI_CONFIG_LIST.json",filter_dict={"model_client_cls": ["UniAPIModelClient"]},
)assistant = AssistantAgent("assistant", llm_config={"config_list": config_list_custom})
user_proxy = UserProxyAgent("user_proxy",code_execution_config={"work_dir": "coding","use_docker": False,},
)assistant.register_model_client(model_client_cls=UniAPIModelClient)
user_proxy.initiate_chat(assistant,message="Write python code to print hello world",
)

如果想要修改为其他模型,唯一的要求是,这个模型支持HTTP调用,然后把 self.api_url = "https://api.uniapi.me/v1/chat/completions" 替换成你自己的值。

在运行上面的案例代码之前,需要创建 UNIAPI_CONFIG_LIST.json 文件,并且可以被程序读取到。其格式如下:

[{"model": "claude-3-5-sonnet-20240620","api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxx","temperature": 0.8,"max_tokens": 4000,"model_client_cls": "UniAPIModelClient"}
]

其实这个json本质上就是一个大模型的配置,指定一些必要的参数,其中 model_client_cls 的值要是自定义的模型类的名字,这里不能写错。

以上就是如何在AutoGen使用自定义大模型的全部内容了。

我在这篇博客中只给了具体的案例代码,没有关于更深层次的解读,感兴趣可以阅读官网的文档。

这里想吐槽一下,AutoGen的文档不咋地,不少案例代码都是旧的,没有跟着代码及时更新,有不少坑。

这篇关于如何在AutoGen中使用自定义的大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110216

相关文章

使用Python将PDF表格自动提取并写入Word文档表格

《使用Python将PDF表格自动提取并写入Word文档表格》在实际办公与数据处理场景中,PDF文件里的表格往往无法直接复制到Word中,本文将介绍如何使用Python从PDF文件中提取表格数据,并将... 目录引言1. 加载 PDF 文件并准备 Word 文档2. 提取 PDF 表格并创建 Word 表格

使用Python实现局域网远程监控电脑屏幕的方法

《使用Python实现局域网远程监控电脑屏幕的方法》文章介绍了两种使用Python在局域网内实现远程监控电脑屏幕的方法,方法一使用mss和socket,方法二使用PyAutoGUI和Flask,每种方... 目录方法一:使用mss和socket实现屏幕共享服务端(被监控端)客户端(监控端)方法二:使用PyA

Python使用Matplotlib和Seaborn绘制常用图表的技巧

《Python使用Matplotlib和Seaborn绘制常用图表的技巧》Python作为数据科学领域的明星语言,拥有强大且丰富的可视化库,其中最著名的莫过于Matplotlib和Seaborn,本篇... 目录1. 引言:数据可视化的力量2. 前置知识与环境准备2.1. 必备知识2.2. 安装所需库2.3

Python数据验证神器Pydantic库的使用和实践中的避坑指南

《Python数据验证神器Pydantic库的使用和实践中的避坑指南》Pydantic是一个用于数据验证和设置的库,可以显著简化API接口开发,文章通过一个实际案例,展示了Pydantic如何在生产环... 目录1️⃣ 崩溃时刻:当你的API接口又双叒崩了!2️⃣ 神兵天降:3行代码解决验证难题3️⃣ 深度

Linux内核定时器使用及说明

《Linux内核定时器使用及说明》文章详细介绍了Linux内核定时器的特性、核心数据结构、时间相关转换函数以及操作API,通过示例展示了如何编写和使用定时器,包括按键消抖的应用... 目录1.linux内核定时器特征2.Linux内核定时器核心数据结构3.Linux内核时间相关转换函数4.Linux内核定时

python中的flask_sqlalchemy的使用及示例详解

《python中的flask_sqlalchemy的使用及示例详解》文章主要介绍了在使用SQLAlchemy创建模型实例时,通过元类动态创建实例的方式,并说明了如何在实例化时执行__init__方法,... 目录@orm.reconstructorSQLAlchemy的回滚关联其他模型数据库基本操作将数据添

Spring配置扩展之JavaConfig的使用小结

《Spring配置扩展之JavaConfig的使用小结》JavaConfig是Spring框架中基于纯Java代码的配置方式,用于替代传统的XML配置,通过注解(如@Bean)定义Spring容器的组... 目录JavaConfig 的概念什么是JavaConfig?为什么使用 JavaConfig?Jav

Java使用Spire.Doc for Java实现Word自动化插入图片

《Java使用Spire.DocforJava实现Word自动化插入图片》在日常工作中,Word文档是不可或缺的工具,而图片作为信息传达的重要载体,其在文档中的插入与布局显得尤为关键,下面我们就来... 目录1. Spire.Doc for Java库介绍与安装2. 使用特定的环绕方式插入图片3. 在指定位

Springboot3 ResponseEntity 完全使用案例

《Springboot3ResponseEntity完全使用案例》ResponseEntity是SpringBoot中控制HTTP响应的核心工具——它能让你精准定义响应状态码、响应头、响应体,相比... 目录Spring Boot 3 ResponseEntity 完全使用教程前置准备1. 项目基础依赖(M

Java使用Spire.Barcode for Java实现条形码生成与识别

《Java使用Spire.BarcodeforJava实现条形码生成与识别》在现代商业和技术领域,条形码无处不在,本教程将引导您深入了解如何在您的Java项目中利用Spire.Barcodefor... 目录1. Spire.Barcode for Java 简介与环境配置2. 使用 Spire.Barco