128k专题

ChatGPT真实的上下文长度是多少?不是128K!

大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效率提升,AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。 上下文长度是衡量AI模型/工具的一个重要指标。从表面上来看,它决定

震惊!借助Coze白嫖GPT4-128k解决方案

震惊!某大佬借助Coze白嫖GPT4-128k解决方案 前言 此文章介绍如何免费使用GPT-4高级模型并拓展API功能 最近的 Coze 在国内开放了,可以免费使用大模型。但是和国外的有点区别,国外版本使用的chatgpt4,国内版本使用的是语雀大模型。 Coze是一个新一代的AI模型智能开发平台。通过整合插件、短期和长期记忆、工作流、卡片等功能,Coze可以帮助您以低门槛和快速的速度构

马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文

ChatGPT狂飙160天,世界已经不是之前的样子。 新建了人工智能中文站https://ai.weoknow.com 每天给大家更新可用的国内可用chatGPT资源 发布在https://it.weoknow.com 更多资源欢迎关注   马斯克搞大模型,速度也奇快。 Grok 1 开源才刚有 10 天,Grok 1.5 就来了。 本周五早上,马斯克旗下