本文主要是介绍InternLM2.5-20B-Chat 正式上线 SiliconCloud 平台,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
经推理加速的 InternLM2.5-20B-Chat 已正式上线 SiliconCloud 平台。开发者们无需自行开发和部署,直接通过平台就可以轻松调用 API 服务实际应用。
API 调用代码:
from openai import OpenAIclient = OpenAI(api_key="YOUR_API_KEY", base_url="https://api.siliconflow.cn/v1")response = client.chat.completions.create(model='internlm/internlm2_5-20b-chat',messages=[{'role': 'user', 'content': "抛砖引玉是什么意思呀"}],stream=True
)for chunk in response:print(chunk.choices[0].delta.content, end='')
相比之前上线的 InternLM2.5-7B-Chat,InternLM2.5-20B-Chat 的综合性能更为强大,能够轻松应对更复杂的应用场景。特别是在接入火爆社区的 MindSearch 多智能体框架后,InternLM2.5-20B-Chat 能自主进行互联网搜索,并从上百个网页中高效整合信息。
在线体验传送门:
https://cloud.siliconflow.cn/playground/chat/17885302561
一起来直观感受下 InternLM2.5-20B-Chat 在 SiliconCloud 上的惊人生成速度与复杂推理效果。
SiliconCloud 介绍
SiliconCloud 是硅基流动推出的一站式大模型云服务平台。通过提供更快、更便宜、更全面的主流开源大模型 API 服务,SiliconCloud 希望能打造“大模型 Token 工厂”,帮助开发者真正实现“ Token 自由”。目前,平台已上架多种大语言模型、向量&重排序模型、包含图片/视频生成的多模态大模型,用户可自由切换适合不同应用场景的模型。
InternLM 2.5 介绍
在 2024 年 7 月 4 日的 WAIC 科学前沿主论坛上,上海人工智能实验室推出了书生·浦语系列模型的全新版本——InternLM2.5。相较于上一代,InternLM2.5 全面增强了在复杂场景下的推理能力,支持 1M 超长上下文,能自主进行互联网搜索并从上百个网页中完成信息整合。
书生·浦语系列大模型主页:
https://internlm.intern-ai.org.cn
Hugging Face 主页:
https://huggingface.co/internlm
ModelScope 主页:
https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model
开源链接:
https://github.com/InternLM/InternLM
特别预告:
在书生大模型实战营第 3 期的彩蛋岛环节,我们还将上线以下课程,带领大家更好地使用 SiliconCloud InternLM API。
-
【手把手带你使用 InternLM 实现谁是卧底游戏(基于 SiliconCloud InternLM API)】
-
【如何使用纯 CPU 将 MindSearch 部署到 HuggingFace(基于 SiliconCloud InternLM API)】
书生大模型实战营第 3 期正在火热进行中,欢迎大家识别下方二维码或点击链接(https://www.wjx.cn/vm/PvefmG2.aspx?udsid=832803)报名参与学习!
这篇关于InternLM2.5-20B-Chat 正式上线 SiliconCloud 平台的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!