使用 OKhttp3 实现 智普AI ChatGLM HTTP 调用(SSE、异步、同步)

2024-06-06 22:28

本文主要是介绍使用 OKhttp3 实现 智普AI ChatGLM HTTP 调用(SSE、异步、同步),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

SSE 调用

SSE(Sever-Sent Event),就是浏览器向服务器发送一个HTTP请求,保持长连接,服务器不断单向地向浏览器推送“信息”(message),这么做是为了节约网络资源,不用一直发请求,建立新连接。

// 创建请求对象Request request = new Request.Builder().url(String.format(sseApi, seeId))
//                .post(requestBody) // 请求体
//                .addHeader("Authorization", "Bearer " + token).addHeader("Accept", "text/event-stream")
//                .addHeader("Content-Type", "text/event-stream;charset=UTF-8").addHeader("Connection", "keep-alive").build();OkHttpClient okHttpClient = new OkHttpClient.Builder().connectTimeout(10, TimeUnit.SECONDS)   // 建立连接的超时时间.readTimeout(30, TimeUnit.SECONDS)  // 建立连接后读取数据的超时时间.build();// 创建一个 CountDownLatch 对象,其初始计数为1,表示需要等待一个事件发生后才能继续执行。CountDownLatch eventLatch = new CountDownLatch(1);// 实例化EventSource,注册EventSource监听器 -- 创建一个用于处理服务器发送事件的实例,并定义处理事件的回调逻辑final String[] finalMessage = {""};RealEventSource realEventSource = new RealEventSource(request, new EventSourceListener() {@Overridepublic void onEvent(EventSource eventSource, String id, String type, String data) {if ("finish".equals(type)) {    // 消息类型,add 增量,finish 结束,error 错误,interrupted 中断eventLatch.countDown();finalMessage[0] = data;
//                    log.info(data);   // 请求到的数据}}@Overridepublic void onFailure(EventSource eventSource, Throwable t, Response response) {t.printStackTrace();}});// 与服务器建立连接realEventSource.connect(okHttpClient);// await() 方法被调用来阻塞当前线程,直到 CountDownLatch 的计数变为0。eventLatch.await();return finalMessage[0];

异步调用

根据文档描述,首先得通过异步 POST 请求获得 task_id ,再根据 task_id 发送 GET 请求获得最终结果

// TODO 设置请求参数,同 SSE 调用// 开启 Http 客户端
OkHttpClient okHttpClient = new OkHttpClient();// 创建请求体
MediaType json = MediaType.parse("application/json; charset=utf-8");
RequestBody requestBody = RequestBody.create(json, requestParam.toString());// 第一步:发送异步请求(POST)获取 task_id,并存放到 taskIdFuture 中
CompletableFuture<String> taskIdFuture = new CompletableFuture<>();Request requestForTaskId = new Request.Builder().url("https://open.bigmodel.cn/api/paas/v3/model-api/chatglm_turbo/async-invoke").post(requestBody).addHeader("Authorization", "Bearer " + token).build();// 创建一个新的异步 HTTP 请求,并指定请求的回调函数
okHttpClient.newCall(requestForTaskId).enqueue(new Callback() {// 在请求成功并返回响应时被调用@Overridepublic void onResponse(Call call, Response response) throws IOException {if (response.isSuccessful()) {String responseBody = response.body().string();System.out.println("requestForTaskId: " + responseBody);// 解析 JSON 响应获取 task_idJSONObject jsonObject = JSON.parseObject(responseBody);String taskId = jsonObject.getJSONObject("data").getString("task_id");// 将结果设置到 CompletableFuturetaskIdFuture.complete(taskId);} else {taskIdFuture.completeExceptionally(new Exception("Request for task_id failed"));}}// 在请求失败时被调用@Overridepublic void onFailure(Call call, IOException e) {taskIdFuture.completeExceptionally(e);}
});// 阻塞主线程,等待 CompletableFuture 的结果,设置了最大等待时间
String taskId = taskIdFuture.get(10, TimeUnit.SECONDS);
System.out.println("Task ID: " + taskId);// TODO 第二步,使用 task_id 发送同步请求(GET)获取最终响应结果(和第四节基本一样)

同步调用

// TODO 设置请求参数,同 SSE 调用// 开启 Http 客户端
OkHttpClient client = new OkHttpClient();// 创建请求体
MediaType json = MediaType.parse("application/json; charset=utf-8");
RequestBody requestBody = RequestBody.create(json, requestParam.toString());// 创建请求对象
Request request = new Request.Builder().url("https://open.bigmodel.cn/api/paas/v3/model-api/chatglm_turbo/invoke").post(requestBody) .addHeader("Authorization", "Bearer " + token).build();// 发送请求
Response response = client.newCall(request).execute();// 处理响应
if (response.isSuccessful()) {String responseBody = response.body().string();System.out.println("Response: " + responseBody);
} else {System.out.println("Request failed: " + response.code() + " " + response.message());
}

这篇关于使用 OKhttp3 实现 智普AI ChatGLM HTTP 调用(SSE、异步、同步)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1037405

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu