【大模型API调用初尝试一】智谱AI 通义千问

2024-03-13 19:28

本文主要是介绍【大模型API调用初尝试一】智谱AI 通义千问,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

大模型API调用初尝试一

  • 调用大模型API能干什么
  • 智谱AI大模型API调用的过程
    • 获取API_KEY
    • GLM_4同步调用
    • GLM_4异步调用
    • 文生图大模型API调用
  • 阿里云通义千问API调用过程
    • 单轮会话
    • 多轮会话

调用大模型API能干什么

大模型的参数非常庞大,功能非常强大,但是训练成本高昂,因此个人或者小企业自己去训练一个大模型是不可能的。我们可以通过直接调用大模型的API,将大模型集成到自己的应用中。 大模型的API就是一个接口,类似MaaS,用户通过调用API访问大模型,获得大模型针对用户prompt(问题)的输出,一般输出是json格式的,然后我们利用这个输出进行后续的操作。
但是大模型是一个已经训练好的模型,类似一个封装好的盒子,其能够运用的知识是有限的,比如chatgpt的知识截至2021年9月,让它提供实时的天气预报是不可行的,因此现在的大模型API中还增加了外部API/函数的调用功能,大模型能够根据用户的prompt确定要去调用的外部API/function–>调用外部API/function并获得结果–>大模型整合结果再输出,如下图所示:
在这里插入图片描述

我们可以参考某一个大模型对应的官方文档,学习如何调用其API。

智谱AI大模型API调用的过程

智谱AI是清华大学计算机系技术成果转化而来的公司,公司产品包括:中英双语千亿级超大规模预训练模型GLM-130B,并基于此推出对话模型ChatGLM;高效率代码模型CodeGeeX;多模态理解模型CogVLM和文生图模型CogView等。

获取API_KEY

调用API首先需要获取API,每个用户需要自己注册申请对应的API。进入智谱AI官网,注册后申请API,复制API_KEY以便后续调用:
在这里插入图片描述
现在打开API调用参考文档:通用大模型和图像大模型,直接复制其代码,看看输出是什么样的!

GLM_4同步调用

同步调用就是创建一个调用任务后,一直运行这个任务直到收到大模型的响应输出;对应的是异步调用,创建调用任务后获得这个任务的request-id,之后可以去干其他事情,后续通过这个任务ID查看模型的输出。

from zhipuai import ZhipuAI  # 先安装ZhipuAI的包 pip install ZhipuAI
client = ZhipuAI(api_key="xxxx") # 填写您自己的APIKey
response = client.chat.completions.create(model="glm-4",  # 填写需要调用的模型名称messages=[# messages是json格式的数据,大模型逐条响应{"role": "user", "content": "作为一名营销专家,请为我的产品创作一个吸引人的slogan"},{"role": "assistant", "content": "当然,为了创作一个吸引人的slogan,请告诉我一些关于您产品的信息"},{"role": "user", "content": "智谱AI开放平台"},{"role": "assistant", "content": "智启未来,谱绘无限一智谱AI,让创新触手可及!"},{"role": "user", "content": "创造一个更精准、吸引人的slogan"}],
)
# 直接输出response,查看响应的具体内容
print(response)

输出的完整json数据:
在这里插入图片描述
如果只关注最终输出的message的content,可以只取response.choices[0].message.content

上面例子传入大模型的message列表里面,有user的信息,也有assistant的信息,大模型实际响应的只有user对应的content,但是assistant的内容可以为大模型提供一些上下文或者提示。

message只传入用户的输入,并多次问答的例子如下:

from zhipuai import ZhipuAIclient = ZhipuAI(api_key="xxxxxx") # 填写您自己的APIKey
# 循环提问/对话
while True:# 接收用户输入作为问题prompt = input("\nuser:")response = client.chat.completions.create(model="glm-4",  # 填写需要调用的模型名称messages=[{"role": "user", "content": prompt}],)answer = response.choices[0].message.contentprint("\nZhipuAI:",answer) # 只输出大模型响应的message.context

结果:
在这里插入图片描述
上述例子虽然user能够无限次的与大模型进行对话(交互),但由于message中只有用户单次的问题,没有保存上下文的信息,因此如果前后问题有衔接,这样的方式是不行的。应该使用多轮对话,将每轮对话的问答保存在message中,传给大模型为其提供对话的上下文。

GLM_4异步调用

参考官方文档,异步调用获取结果包括两步:①获取模型的响应ID,②根据ID查询响应结果;

import time
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="xxxxxx") # 请填写您自己的APIKeyresponse = client.chat.asyncCompletions.create(model="glm-4",  # 填写需要调用的模型名称messages=[{"role": "user","content": "请你作为童话故事大王,写一篇短篇童话故事,故事的主题是要永远保持一颗善良的心,要能够激发儿童的学习兴趣和想象力,同时也能够帮助儿童更好地理解和接受故事中所蕴含的道理和价值观。"}],
)
# 获取响应ID
task_id = response.id
task_status = ''
get_cnt = 0while task_status != 'SUCCESS' and task_status != 'FAILED' and get_cnt <= 40:# 查询响应结果result_response = client.chat.asyncCompletions.retrieve_completion_result(id=task_id)print(result_response)task_status = result_response.task_statustime.sleep(2)get_cnt += 1

运行输出如下:
在这里插入图片描述
可以看到在得到大模型的响应输出前,状态一直是processing;知道大模型响应。

文生图大模型API调用

Cogview是文生图的大模型,直接复制的官方文档的代码:

from zhipuai import ZhipuAI
client = ZhipuAI(api_key="xxxxx") # 请填写您自己的APIKeyresponse = client.images.generations(model="cogview-3", #填写需要调用的模型名称prompt="一只可爱的小猫咪",
)
print(response.data[0].url)

结果(0.25一张照片呜呜呜呜呜呜呜)返回图片url:https://sfile.chatglm.cn/testpath/b158178b-e00c-5ea0-92bb-f2962922b877_0.png 👇:
在这里插入图片描述

阿里云通义千问API调用过程

通义千问是阿里云开发的基于QWen模型的聊天模型,QWen模型是开源的。调用API同样需要先获取API_KEY——首先注册阿里云的账号,然后进入灵积平台创建API-KEY:
在这里插入图片描述
之后查看通义千问的官方API调用文档👉快速入门,会话可以分为单轮会话和多轮会话:

单轮会话

可以通过message和prompt两种方式调用API:

import random
from http import HTTPStatus # 通义千问API是通过HTTP调用的 
import dashscopedashscope.api_key = 'xxxxx' # 设置自己申请的API_KEY; 这个方式设置有泄露api的可能def call_with_messages():prompt = input("user:")messages = [{'role': 'system', 'content': 'You are a helpful assistant.'},{'role': 'user', 'content': prompt}]response = dashscope.Generation.call(dashscope.Generation.Models.qwen_turbo, # 选择模型messages=messages,# set the random seed, optional, default to 1234 if not setseed=random.randint(1, 10000),result_format='message',  # set the result to be "message" format.)# 之后HTTPStatus为OK时,才是调用成功if response.status_code == HTTPStatus.OK:print(response)else:print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (response.request_id, response.status_code,response.code, response.message))# For prerequisites running the following sample, visit https://help.aliyun.com/document_detail/611472.htmldef call_with_prompt():prompt = input("user:")response = dashscope.Generation.call(model=dashscope.Generation.Models.qwen_turbo, # 选择模型prompt=prompt)# The response status_code is HTTPStatus.OK indicate success,# otherwise indicate request is failed, you can get error code# and message from code and message.if response.status_code == HTTPStatus.OK:print(response.output)  # The output textprint(response.usage)  # The usage informationelse:print(response.code)  # The error code.print(response.message)  # The error message.if __name__ == '__main__':call_with_messages()print("\n")call_with_prompt()

两种方式的单轮会话输出如下:
在这里插入图片描述
这里需要注意通过message和prompt调用,这两种方式对应的输出Json格式是不同的。

多轮会话

通过messages调用API,每轮会话用户的问题(the content of user)和大模型的输出(content of assistant)会存储在messages这个列表中,之后的输出会参考前面的内容,体现了大模型的记忆性!(可以在体验中心,选择多轮会话,注意观察代码中messages的变化):
在这里插入图片描述
观察对应的代码,每轮会话结束后,user的问题和模型的响应都会append在messages中:

在这里插入图片描述
可以用下面的代码调用API实现多轮会话:

from http import HTTPStatus
import dashscope
from dashscope import Generation
from dashscope.api_entities.dashscope_response import Roledashscope.api_key = 'xxxxx' # 设置API_KEYdef conversation_with_messages():messages = [{'role': Role.SYSTEM, 'content': 'You are a helpful assistant.'}  ]# 循环实现多轮会话while True:prompt = input("USER:")# 添加新一轮会话用户的问题messages.append({'role': Role.USER, 'content': prompt})response = Generation.call(Generation.Models.qwen_turbo, #选择响应的模型messages=messages,result_format='message',  # set the result to be "message" format.)if response.status_code == HTTPStatus.OK:print(response)# 把模型的输出添加到messages中messages.append({'role': response.output.choices[0]['message']['role'],'content': response.output.choices[0]['message']['content']})else:print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (response.request_id, response.status_code,response.code, response.message))exit()if __name__ == '__main__':conversation_with_messages()

结果如下:
在这里插入图片描述

这篇关于【大模型API调用初尝试一】智谱AI 通义千问的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/805947

相关文章

Spring Security基于数据库的ABAC属性权限模型实战开发教程

《SpringSecurity基于数据库的ABAC属性权限模型实战开发教程》:本文主要介绍SpringSecurity基于数据库的ABAC属性权限模型实战开发教程,本文给大家介绍的非常详细,对大... 目录1. 前言2. 权限决策依据RBACABAC综合对比3. 数据库表结构说明4. 实战开始5. MyBA

Java调用C++动态库超详细步骤讲解(附源码)

《Java调用C++动态库超详细步骤讲解(附源码)》C语言因其高效和接近硬件的特性,时常会被用在性能要求较高或者需要直接操作硬件的场合,:本文主要介绍Java调用C++动态库的相关资料,文中通过代... 目录一、直接调用C++库第一步:动态库生成(vs2017+qt5.12.10)第二步:Java调用C++

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

在C#中调用Python代码的两种实现方式

《在C#中调用Python代码的两种实现方式》:本文主要介绍在C#中调用Python代码的两种实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录C#调用python代码的方式1. 使用 Python.NET2. 使用外部进程调用 Python 脚本总结C#调

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

SpringCloud之LoadBalancer负载均衡服务调用过程

《SpringCloud之LoadBalancer负载均衡服务调用过程》:本文主要介绍SpringCloud之LoadBalancer负载均衡服务调用过程,具有很好的参考价值,希望对大家有所帮助,... 目录前言一、LoadBalancer是什么?二、使用步骤1、启动consul2、客户端加入依赖3、以服务

Vue 调用摄像头扫描条码功能实现代码

《Vue调用摄像头扫描条码功能实现代码》本文介绍了如何使用Vue.js和jsQR库来实现调用摄像头并扫描条码的功能,通过安装依赖、获取摄像头视频流、解析条码等步骤,实现了从开始扫描到停止扫描的完整流... 目录实现步骤:代码实现1. 安装依赖2. vue 页面代码功能说明注意事项以下是一个基于 Vue.js

Spring AI ectorStore的使用流程

《SpringAIectorStore的使用流程》SpringAI中的VectorStore是一种用于存储和检索高维向量数据的数据库或存储解决方案,它在AI应用中发挥着至关重要的作用,本文给大家介... 目录一、VectorStore的基本概念二、VectorStore的核心接口三、VectorStore的

讯飞webapi语音识别接口调用示例代码(python)

《讯飞webapi语音识别接口调用示例代码(python)》:本文主要介绍如何使用Python3调用讯飞WebAPI语音识别接口,重点解决了在处理语音识别结果时判断是否为最后一帧的问题,通过运行代... 目录前言一、环境二、引入库三、代码实例四、运行结果五、总结前言基于python3 讯飞webAPI语音

Spring AI集成DeepSeek三步搞定Java智能应用的详细过程

《SpringAI集成DeepSeek三步搞定Java智能应用的详细过程》本文介绍了如何使用SpringAI集成DeepSeek,一个国内顶尖的多模态大模型,SpringAI提供了一套统一的接口,简... 目录DeepSeek 介绍Spring AI 是什么?Spring AI 的主要功能包括1、环境准备2