本文主要是介绍别等了!速来体验 GLM-4-9B-Chat,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
昨日,智谱 AI 发布了基座大模型 GLM-4 的最新开源成果——GLM-4-9B,首次拥有了多模态能力。官方给出的数据显示,对比训练量更多的 Llama-3-8B 模型,GLM-4-9B 在中文学科方面的提升高达 50%,在多模态方面可以比肩 GPT-4V。
在上下文长度上,GLM-4-9B 实现了从 128K 到 1M 的升级跨越,相当于能够一口气消化 125 篇论文!此外,其模型词表从 6 万升级到了 15 万,在中英文之外的语言编码效率平均提升了 30%,可以更快处理小语种的任务。
为了让大家第一时间体验到这个自称「超越 Llama3」的开源模型,OpenBayes 平台公共模型板块现已上线了「GLM-4-9B-Chat」模型,支持一键 input,跳过漫长的下载、上传时间,直接开启快乐部署。
公共模型地址:
https://go.openbayes.com/F7pbS
不仅如此,「一键部署 GLM-4-9B-Chat Demo」也已经同步上线至 OpenBayes 平台公共教程板块,无需输入任何命令、点击克隆即可立即开始体验 GLM-4-9B-Chat 的卓越性能。
公共教程地址:
https://go.openbayes.com/ulmZe
操作步骤
PART 1
Demo 运行阶段
1. 登录 http://OpenBayes.com,在「公共教程」页面,选择「一键部署 GLM-4-9B-Chat Demo」。
2. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3. 点击右下角「下一步:选择算力」。
4. 跳转后,选择「NVIDIA GeForce RTX 4090」,点击「下一步:审核」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!
小贝总专属邀请链接(直接复制到浏览器打开):https://go.openbayes.com/9S6Dr
5. 点击「继续执行」,等待分配资源,首次克隆需等待 3 分钟左右的时间。当状态变为「运行中」后,将鼠标移动至「API 地址」后,复制该地址并在新标签页打开,即可跳转至 GLM-4-9B-Chat Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
若超过 10 分钟仍处于「正在分配资源」状态,可尝试停止并重启容器;若重启仍无法解决,请在官网联系平台客服。
PART 2
Demo 运行阶段
1. 打开 GLM-4-9B-Chat Demo 页面,在对话框内容输入文本,点击「Submit」后,即可开始对话。
2. 右侧的超参数面板分别表示:
Maximum length:模型最大输出文字的数量;
Top P:控制从模型输出的概率分布中选择候选词的范围,值增大,意味着在文本生成过程中考虑的单词集合会更大;
Temperature:控制随机性的超参数,值越大,生成文本的随机性越大。
这篇关于别等了!速来体验 GLM-4-9B-Chat的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!