AI大模型日报#0515:Google I/O大会、 Ilya官宣离职、腾讯混元文生图大模型开源

本文主要是介绍AI大模型日报#0515:Google I/O大会、 Ilya官宣离职、腾讯混元文生图大模型开源,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

导读:欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”(ERNIE 4.0)、“零一万物”(Yi-34B)生成了今日要点以及每条资讯的摘要。

《AI大模型日报》今日要点:谷歌Google I/O大会上宣布了一系列AI更新,包括Gemini 1.5 Pro的升级,其上下文窗口已扩展至200万tokens,同时推出了轻量级模型Gemini 1.5 Flash。此外,谷歌还展示了多模态理解和实时对话能力的Project Astra,以及最新的视频生成模型Veo和高质量文本到图像模型Imagen 3,彰显了其在AI领域的持续投入与竞争力。另一方面,大模型分词故障自动检测方法获科技大神Karpathy推荐,此方法可望解决大模型分词故障问题,并提升模型表现。在模型性价比方面,火山引擎推出了价格低至行业价格0.7%的豆包大模型,其对外开放服务提供极致性价比,标志着大模型落地应用的又一重要进展。然而,在业界人事变动方面,OpenAI联合创始人、首席科学家Ilya Sutskever宣布离职,引发了业界对于OpenAI未来走向的关注。同时,百度团队开发的基于Transformer的RNA语言模型RNAErnie在多功能RNA分析方面取得显著成果,成功登上Nature子刊。最后,腾讯宣布其混元文生图大模型全面升级并开源,此举有望丰富中文文生图开源生态,推动大模型行业的加速发展。

标题: 谷歌Gemini时代来了!加固搜索护城河、赋能全家桶,Gemini 1.5 Pro升级至200万token
 


摘要: 谷歌的Google I/O大会上宣布了一系列的AI更新,包括Gemini 1.5 Pro的上下文窗口扩展到200万tokens,以及轻量级模型Gemini 1.5 Flash的推出。同时,DeepMind CEO Demis Hassabis介绍了Gemini 1.5 Flash的多模态特性和Gemma 2的新架构。此外,谷歌还展示了Project Astra的多模态理解和实时对话能力,以及最新的视频生成模型Veo和高质量文本到图像模型Imagen 3。这些更新表明谷歌在AI领域持续发力,与竞争对手OpenAI及其背后的微软展开激烈竞争。
网址: 谷歌Gemini时代来了!加固搜索护城河、赋能全家桶,Gemini 1.5 Pro升级至200万token - 智源社区
 
标题: 大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司
 


摘要: 科技记者讯,新论文提出大模型分词故障自动检测方法,获大神Karpathy推荐。大模型tokenizer的创建和模型训练分离,可能导致训练不足的token,引发模型异常输出。Cohere研究人员通过三步骤检测故障token,包括分析tokenizer,找出特殊token如不完整UTF-8序列等;根据模型计算识别指标,找出嵌入向量异常token;通过特定prompt验证。此方法在多个主流大语言模型上发现数千个训练不足token,如单字节token和特殊字符。词汇表较大的模型训练不足token更多。论文建议优化词汇表结构和tokenizer算法,确保数据预处理相同,检查无法访问token等。此研究有望解决大模型分词故障问题,提升模型表现。
网址: 大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司 - 智源社区
 
标题: 大模型价格进入“厘”时代,豆包大模型定价每千tokens仅0.8厘
 


摘要: 要点提炼: 1. 大模型性价比之战升级,火山引擎推出自研豆包大模型,价格低至行业价格的0.7%。 2. 豆包大模型在火山引擎上对外开放服务,提供极致性价比,一元钱能购买到相当于三本《三国演义》输入量的模型服务。 3. 火山引擎总裁谭待认为,降低成本是推动大模型快速进入价值创造阶段的关键因素。 4. 过去一年,许多企业已将大模型与核心业务流结合,但成本高昂问题仍是制约大模型落地的关键要素。 5. 火山引擎智能算法负责人吴迪透露,预计2024年底或2025年初,企业对大模型的调用量将出现陡峭上升。 6. 火山方舟2.0版本在模型效果、系统承载力、性价比三个方面提出具体解决方案,并发布企业级AI应用开发平台扣子专业版。 7. 豆包大模型在字节跳动内部经过50余个业务场景的打磨,日调用量达到1200亿tokens,图片生成量超过3000万张。 8. 火山方舟在系统承载力方面增强,拥有充沛的公有云GPU资源池,能够分钟级完成千卡扩缩容,并提供丰富的插件生态,包括联网插件、内容插件和RAG知识库插件。 9. 吴迪强调,火山方舟的目的是帮助企业更快、更省地推进大模型落地,解除技术障碍,共同将大模型技术推向新的高度。
网址: 大模型价格进入“厘”时代,豆包大模型定价每千tokens仅0.8厘 | 机器之心
 
标题: Ilya官宣离职,超级对齐负责人Jan直接辞职,OpenAI还是走散了
 


摘要: OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布离职,结束了他近 10 年的 OpenAI 生涯。他在推文中表达了对团队和 OpenAI 成就的感激,并透露了离职后将专注于一个对他来说意义非凡的项目。OpenAI CEO Dmitry 奥特曼对 Ilya 的离职表示了遗憾,并高度评价了 Ilya 的才华、远见和领导力。新任首席科学家 Jakub Pachocki 感谢了 Ilya 的指导和合作,并承诺将继续推动 OpenAI 的使命。Ilya Sutskever 的离职和超级对齐团队共同领导者 Jan Leike 的离开,标志着 OpenAI 创始团队成员的又一次变动,也留下了对超级对齐项目未来走向的疑问。
网址: Ilya官宣离职,超级对齐负责人Jan直接辞职,OpenAI还是走散了 | 机器之心
 
标题: 多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
 


摘要: RNAErnie 是一种基于 Transformer 架构的预训练语言模型,专门设计用于分析核苷酸序列。该模型由百度大数据实验室(BDL)和上海交通大学团队开发,通过多级掩蔽策略进行预训练,以捕获不同层次的序列信息。RNAErnie 在七个数据集和五个任务上的评估显示出了其优越性,包括分类、交互预测和结构预测。该研究以「Multi-purpose RNA language modelling with motif-aware pretraining and type-guided fine-tuning」为题,发表在《Nature Machine Intelligence》上。
网址: 多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊 | 机器之心
 
标题: 刚刚,Ilya官宣离职OpenAI,“下一个项目意义重大”
 


摘要: 提炼要点: 1. Ilya Sutskever宣布离职OpenAI,并透露已有新的个人项目,但未提供详细信息。 2. OpenAI的CEO Dmitry "Dima" Grishin对Ilya的贡献给予高度评价,并感谢他在公司发展中的角色。 3. OpenAI发布GPT-4模型,Ilya的名字出现在“额外领导者”一栏,可能是其最后的贡献。 4. 离职消息发布在谷歌I/O大会之后,吸引了广泛关注。 5. 新任首席科学家Jakub Pachocki接替Ilya的职位,并获得CEO的积极评价。 6. 网友对Ilya的离职表示祝福,并猜测其下一步可能加入马斯克的xAI。 7. Jakub Pachocki在OpenAI中担任过多个重要项目的负责人,包括Dota游戏项目、ChatGPT和GPT-4。 8. 对于Ilya离职后的去向及其所见的“重大意义”项目,外界充满好奇,并期待未来揭晓答案。
网址: 刚刚,Ilya官宣离职OpenAI,"下一个项目意义重大" | 量子位
 
标题: 腾讯宣布混元文生图大模型开源: Sora 同架构,可免费商用
 


摘要: 腾讯宣布其混元文生图大模型全面升级并开源,该模型基于DiT架构,参数量为15亿,支持中英文双语输入和理解。评测数据显示,该模型效果远超Stable Diffusion,达到国际领先水平。腾讯混元文生图团队自2023年7月起明确基于DiT架构的模型方向,并在今年初全面升级为DiT架构。模型在算法层面优化了长文本理解能力,并实现了多轮生图和对话能力。 混元文生图大模型是首个中文原生的DiT模型,在生成中国元素的内容上表现出色。腾讯混元文生图能力已应用于多个业务及场景,包括广告创意和新闻内容生产。腾讯文生图负责人芦清林表示,此次开源是希望与行业共享实践经验和研究成果,丰富中文文生图开源生态,推动大模型行业加速发展。 基于腾讯开源的文生图模型,开发者和企业可以直接用于推理,并基于混元文生图打造专属的AI绘画应用和服务,节约大量人力和算力。同时,这也有利于丰富以中文为主的文生图开源生态,推动中文文生图技术研发和应用。腾讯在开源上一直持开放态度,已开源了超170个项目,并在Github上获得超47万开发者关注及点赞。
网址: 腾讯宣布混元文生图大模型开源: Sora 同架构,可免费商用 | 量子位
 
标题: 无需OpenAI数据,跻身代码大模型榜单!UIUC发布StarCoder-15B-Instruct
 


摘要: StarCoder2-15B-Instruct是由UIUC张令明团队与BigCode组织合作开发的一个代码生成模型,它在性能上超过了CodeLlama-70B-Instruct,成为代码生成领域的领先者。该模型的独特之处在于其纯自对齐策略,即通过自我验证机制生成指令-响应对,而不依赖于外部教师模型或昂贵的人工标注数据。这一过程确保了模型的训练流程公开透明且完全自主可控。在HumanEval测试和LiveCodeBench评估中,StarCoder2-15B-Instruct表现出色,证明了通过自身数据分布,大模型可以有效地学习与人类偏好对齐,而无需依赖外部模型的偏移分布。该项目的成功实施得到了多家学术和企业的支持。
网址: 无需OpenAI数据,跻身代码大模型榜单!UIUC发布StarCoder-15B-Instruct|指令_新浪新闻
 

这篇关于AI大模型日报#0515:Google I/O大会、 Ilya官宣离职、腾讯混元文生图大模型开源的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/993777

相关文章

揭秘未来艺术:AI绘画工具全面介绍

📑前言 随着科技的飞速发展,人工智能(AI)已经逐渐渗透到我们生活的方方面面。在艺术创作领域,AI技术同样展现出了其独特的魅力。今天,我们就来一起探索这个神秘而引人入胜的领域,深入了解AI绘画工具的奥秘及其为艺术创作带来的革命性变革。 一、AI绘画工具的崛起 1.1 颠覆传统绘画模式 在过去,绘画是艺术家们通过手中的画笔,蘸取颜料,在画布上自由挥洒的创造性过程。然而,随着AI绘画工

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

AI儿童绘本创作

之前分享过AI儿童绘画的项目,但是主要问题是角色一致要花费很长的时间! 今天发现了这款,非常奈斯! 只需输入故事主题、风格、模板,软件就会自动创作故事内容,自动生成插画配图,自动根据模板生成成品,测试效果如下图。 变现方式:生成儿童绘本发布到各平台,吸引宝妈群体进私域。  百度网盘 请输入提取码百度网盘为您提供文件的网络备份、同步和分享服务。空间大、速度快、安全

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

亮相WOT全球技术创新大会,揭秘火山引擎边缘容器技术在泛CDN场景的应用与实践

2024年6月21日-22日,51CTO“WOT全球技术创新大会2024”在北京举办。火山引擎边缘计算架构师李志明受邀参与,以“边缘容器技术在泛CDN场景的应用和实践”为主题,与多位行业资深专家,共同探讨泛CDN行业技术架构以及云原生与边缘计算的发展和展望。 火山引擎边缘计算架构师李志明表示:为更好地解决传统泛CDN类业务运行中的问题,火山引擎边缘容器团队参考行业做法,结合实践经验,打造火山

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

探索Elastic Search:强大的开源搜索引擎,详解及使用

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 引入 全文搜索属于最常见的需求,开源的 Elasticsearch (以下简称 Elastic)是目前全文搜索引擎的首选,相信大家多多少少的都听说过它。它可以快速地储存、搜索和分析海量数据。就连维基百科、Stack Overflow、

【新闻】AI程序员要来了吗?阿里云官宣

内容提要 6 月 21 日,在阿里云上海 AI 峰会上,阿里云宣布推出首个AI 程序员。 据介绍,这个AI程序员具备架构师、开发工程师、测试工程师等多种岗位的技能,能一站式自主完成任务分解、代码编写、测试、问题修复、代码提交整个过程,最快分钟级即可完成应用开发,大幅提升研发效率。 近段时间以来,有关AI的实践应用突破不断,全球开发者加速研发步伐。有业内人士坦言,随着大模型性能逐渐提升,AI应

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor