如何在AutoGen中使用自定义的大模型

2024-08-27 01:12

本文主要是介绍如何在AutoGen中使用自定义的大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

也可在我的个人博客上查看:https://panzhixiang.cn/2024/autogen-custom-model/

背景

AutoGen原生只支持国外的大模型,如OpenAI, Claude, Mistral等,不支持国内的大模型。但是国内有一些大模型做的还是不错的,尤其是考虑的价格因素之后,国内的大模型性价比很好,我这两天就在想办法集成国内的大模型。

虽然AutoGen不直接支持国内的大模型,但是它支持自定义大模型(custom model)。可以参考这个博客:AutoGen with Custom Models: Empowering Users to Use Their Own Inference Mechanism

但是博客中的案例代码不是很直观,我在这篇博客中记录一下具体怎么接入国内的大模型,并给出案例代码。

自定义模型类

AutoGen允许自定义模型类,只要符合它的协议就行。

具体的协议要求在 autogen.oai.client.ModelClient 中,代码如下:

class ModelClient(Protocol):"""A client class must implement the following methods:- create must return a response object that implements the ModelClientResponseProtocol- cost must return the cost of the response- get_usage must return a dict with the following keys:- prompt_tokens- completion_tokens- total_tokens- cost- modelThis class is used to create a client that can be used by OpenAIWrapper.The response returned from create must adhere to the ModelClientResponseProtocol but can be extended however needed.The message_retrieval method must be implemented to return a list of str or a list of messages from the response."""RESPONSE_USAGE_KEYS = ["prompt_tokens", "completion_tokens", "total_tokens", "cost", "model"]class ModelClientResponseProtocol(Protocol):class Choice(Protocol):class Message(Protocol):content: Optional[str]message: Messagechoices: List[Choice]model: strdef create(self, params: Dict[str, Any]) -> ModelClientResponseProtocol: ...  # pragma: no coverdef message_retrieval(self, response: ModelClientResponseProtocol) -> Union[List[str], List[ModelClient.ModelClientResponseProtocol.Choice.Message]]:"""Retrieve and return a list of strings or a list of Choice.Message from the response.NOTE: if a list of Choice.Message is returned, it currently needs to contain the fields of OpenAI's ChatCompletion Message object,since that is expected for function or tool calling in the rest of the codebase at the moment, unless a custom agent is being used."""...  # pragma: no coverdef cost(self, response: ModelClientResponseProtocol) -> float: ...  # pragma: no cover@staticmethoddef get_usage(response: ModelClientResponseProtocol) -> Dict:"""Return usage summary of the response using RESPONSE_USAGE_KEYS."""...  # pragma: no cover

直白点说,这个协议有四个要求:

  1. 自定义的类中有create()函数,并且这个函数的返回应当是ModelClientResponseProtocol的一种实现
  2. 要有message_retrieval()函数,用于处理响应,并且返回一个列表,聊表中包含字符串或者message对象
  3. 要有cost()函数,返回消耗的费用
  4. 要有get_usage()函数,返回一些字典,key应该来自于[“prompt_tokens”, “completion_tokens”, “total_tokens”, “cost”, “model”]。这个主要用于分析,如果不需要分析使用情况,可以反馈空。

实际案例

我在这里使用的UNIAPI(一个大模型代理)托管的claude模型,但是国内的大模型可以完全套用下面的代码。

代码如下:

"""
本代码用于展示如何自定义一个模型,本模型基于UniAPI,
但是任何支持HTTPS调用的大模型都可以套用以下代码
"""from autogen.agentchat import AssistantAgent, UserProxyAgent
from autogen.oai.openai_utils import config_list_from_json
from types import SimpleNamespace
import requests
import osclass UniAPIModelClient:def __init__(self, config, **kwargs):print(f"CustomModelClient config: {config}")self.api_key = config.get("api_key")self.api_url = "https://api.uniapi.me/v1/chat/completions"self.model = config.get("model", "gpt-3.5-turbo")self.max_tokens = config.get("max_tokens", 1200)self.temperature = config.get("temperature", 0.8)self.top_p = config.get("top_p", 1)self.presence_penalty = config.get("presence_penalty", 1)print(f"Initialized CustomModelClient with model {self.model}")def create(self, params):headers = {"Authorization": f"Bearer {self.api_key}","Content-Type": "application/json",}data = {"max_tokens": self.max_tokens,"model": self.model,"temperature": self.temperature,"top_p": self.top_p,"presence_penalty": self.presence_penalty,"messages": params.get("messages", []),}response = requests.post(self.api_url, headers=headers, json=data)response.raise_for_status()  # Raise an exception for HTTP errorsapi_response = response.json()# Convert API response to SimpleNamespace for compatibilityclient_response = SimpleNamespace()client_response.choices = []client_response.model = self.modelfor choice in api_response.get("choices", []):client_choice = SimpleNamespace()client_choice.message = SimpleNamespace()client_choice.message.content = choice.get("message", {}).get("content")client_choice.message.function_call = Noneclient_response.choices.append(client_choice)return client_responsedef message_retrieval(self, response):"""Retrieve the messages from the response."""choices = response.choicesreturn [choice.message.content for choice in choices]def cost(self, response) -> float:"""Calculate the cost of the response."""# Implement cost calculation if available from your APIresponse.cost = 0return 0@staticmethoddef get_usage(response):# Implement usage tracking if available from your APIreturn {}config_list_custom = config_list_from_json("UNIAPI_CONFIG_LIST.json",filter_dict={"model_client_cls": ["UniAPIModelClient"]},
)assistant = AssistantAgent("assistant", llm_config={"config_list": config_list_custom})
user_proxy = UserProxyAgent("user_proxy",code_execution_config={"work_dir": "coding","use_docker": False,},
)assistant.register_model_client(model_client_cls=UniAPIModelClient)
user_proxy.initiate_chat(assistant,message="Write python code to print hello world",
)

如果想要修改为其他模型,唯一的要求是,这个模型支持HTTP调用,然后把 self.api_url = "https://api.uniapi.me/v1/chat/completions" 替换成你自己的值。

在运行上面的案例代码之前,需要创建 UNIAPI_CONFIG_LIST.json 文件,并且可以被程序读取到。其格式如下:

[{"model": "claude-3-5-sonnet-20240620","api_key": "xxxxxxxxxxxxxxxxxxxxxxxxxxx","temperature": 0.8,"max_tokens": 4000,"model_client_cls": "UniAPIModelClient"}
]

其实这个json本质上就是一个大模型的配置,指定一些必要的参数,其中 model_client_cls 的值要是自定义的模型类的名字,这里不能写错。

以上就是如何在AutoGen使用自定义大模型的全部内容了。

我在这篇博客中只给了具体的案例代码,没有关于更深层次的解读,感兴趣可以阅读官网的文档。

这里想吐槽一下,AutoGen的文档不咋地,不少案例代码都是旧的,没有跟着代码及时更新,有不少坑。

这篇关于如何在AutoGen中使用自定义的大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110216

相关文章

Java中流式并行操作parallelStream的原理和使用方法

《Java中流式并行操作parallelStream的原理和使用方法》本文详细介绍了Java中的并行流(parallelStream)的原理、正确使用方法以及在实际业务中的应用案例,并指出在使用并行流... 目录Java中流式并行操作parallelStream0. 问题的产生1. 什么是parallelS

Linux join命令的使用及说明

《Linuxjoin命令的使用及说明》`join`命令用于在Linux中按字段将两个文件进行连接,类似于SQL的JOIN,它需要两个文件按用于匹配的字段排序,并且第一个文件的换行符必须是LF,`jo... 目录一. 基本语法二. 数据准备三. 指定文件的连接key四.-a输出指定文件的所有行五.-o指定输出

Linux jq命令的使用解读

《Linuxjq命令的使用解读》jq是一个强大的命令行工具,用于处理JSON数据,它可以用来查看、过滤、修改、格式化JSON数据,通过使用各种选项和过滤器,可以实现复杂的JSON处理任务... 目录一. 简介二. 选项2.1.2.2-c2.3-r2.4-R三. 字段提取3.1 普通字段3.2 数组字段四.

Linux kill正在执行的后台任务 kill进程组使用详解

《Linuxkill正在执行的后台任务kill进程组使用详解》文章介绍了两个脚本的功能和区别,以及执行这些脚本时遇到的进程管理问题,通过查看进程树、使用`kill`命令和`lsof`命令,分析了子... 目录零. 用到的命令一. 待执行的脚本二. 执行含子进程的脚本,并kill2.1 进程查看2.2 遇到的

详解SpringBoot+Ehcache使用示例

《详解SpringBoot+Ehcache使用示例》本文介绍了SpringBoot中配置Ehcache、自定义get/set方式,并实际使用缓存的过程,文中通过示例代码介绍的非常详细,对大家的学习或者... 目录摘要概念内存与磁盘持久化存储:配置灵活性:编码示例引入依赖:配置ehcache.XML文件:配置

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

k8s按需创建PV和使用PVC详解

《k8s按需创建PV和使用PVC详解》Kubernetes中,PV和PVC用于管理持久存储,StorageClass实现动态PV分配,PVC声明存储需求并绑定PV,通过kubectl验证状态,注意回收... 目录1.按需创建 PV(使用 StorageClass)创建 StorageClass2.创建 PV

Redis 基本数据类型和使用详解

《Redis基本数据类型和使用详解》String是Redis最基本的数据类型,一个键对应一个值,它的功能十分强大,可以存储字符串、整数、浮点数等多种数据格式,本文给大家介绍Redis基本数据类型和... 目录一、Redis 入门介绍二、Redis 的五大基本数据类型2.1 String 类型2.2 Hash

Redis中Hash从使用过程到原理说明

《Redis中Hash从使用过程到原理说明》RedisHash结构用于存储字段-值对,适合对象数据,支持HSET、HGET等命令,采用ziplist或hashtable编码,通过渐进式rehash优化... 目录一、开篇:Hash就像超市的货架二、Hash的基本使用1. 常用命令示例2. Java操作示例三

Linux创建服务使用systemctl管理详解

《Linux创建服务使用systemctl管理详解》文章指导在Linux中创建systemd服务,设置文件权限为所有者读写、其他只读,重新加载配置,启动服务并检查状态,确保服务正常运行,关键步骤包括权... 目录创建服务 /usr/lib/systemd/system/设置服务文件权限:所有者读写js,其他