国产版Sora到来!视频大模型更上一层楼

2024-05-11 17:20

本文主要是介绍国产版Sora到来!视频大模型更上一层楼,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

图片

大模型的快节奏发展,让了解最新技术动态、积极主动学习成为每一位从业者的必修课。InfoQ 研究中心期望通过每周更新大模型行业最新动态,为广大读者提供全面的行业回顾和要点分析。现在,让我们回顾过去一周的大模型重大事件吧。

一、重点发现

本周,行业在技术创新、模型优化、跨领域应用和科研探索方面展现出活跃态势。Vidu 视频大模型,多 token 预测模型以及 gpt2-chatbot,均展现突破性性能。元象公司开源 XVERSE-V 大模型,通义千问发布千亿参数的 Qwen1.5-110B,推动了 AI 技术的共享与进步。PEFT 技术和 KAN 神经网络架构的提出,为大模型的训练和架构设计提供了新方向。Anthropic 发布 Claude iOS 应用,GitHub 推出 Copilot Workspace,增强了 AI 在移动平台和开发环境中的实用性。

二、具体内容

大模型持续更新

  1. 4 月 27 日,生数科技与清华大学联合发布了中国首个具有长时长、高一致性和高动态性特点的视频大模型——Vidu。Vidu 不仅能够模拟现实世界的物理现象,还支持多镜头生成,并且具有高度的时空一致性。Vidu 采用了该团队独创的 Diffusion 与 Transformer 融合架构——U-ViT,能够实现一键生成长达 16 秒、分辨率达到 1080P 的高清视频内容。
  2. 4 月 30 日,在 LMSYS Chatbot Arena 中,一个名为 gpt2-chatbot 的神秘模型引起了社交媒体上的热烈讨论。众多网友对 gpt2-chatbot 进行了围观和测试,发现其能力与 GPT-4 不相上下,甚至在某些任务上的表现超过了 GPT-4 Turbo。
  3. 4 月 30 日,Meta AI 法国团队推出多 token 预测模型,在编程类任务上表现突出。与单一 token 预测相比,13B 参数模型在 HumanEval 基准测试中解决了 12% 的额外问题,在 MBPP 基准上则多解决了 17% 的问题。此外,在小型算法推理任务中,多 token 预测也在分布外泛化方面取得了显著的成效。

开源领域

  1. 4 月 28 日,元象公司发布了多模态大模型 XVERSE-V,并将其开源,允许无条件免费商用。这一模型支持任意宽高比的图像输入。
  2. 4 月 29 日,通义千问首次发布了一个千亿级参数模型——Qwen1.5-110B,该模型在多项基准测试中刷新了当前开源模型的最佳成绩。该模型继承了 Qwen1.5 系列的 Transformer 解码器架构,并引入了分组查询注意力方法,这使得模型在推理过程中更为高效。Qwen1.5-110B 模型支持 32K 上下文,表现出卓越的多语言处理能力,支持中文、英文、法文、德文、西班牙文、俄文、日文、韩文、越南文、阿拉伯文等多种语言。

多模态领域

  1. 4 月 27 日,智子引擎发布了其最新的多模态大模型——Awaker 1.0,Awaker 1.0 采用了创新的 MOE 架构,并具备自主更新能力。在视觉生成方面,Awaker 1.0 采用了智子引擎自研的视频生成底座——VDT,该技术在写真视频生成方面的表现超越了 Sora,打破了大模型在实际应用中难以落地的难题。

科研领域

  1. 4 月 29 日,来自美国东北大学、加州大学 Riverside 分校、亚利桑那州立大学和纽约大学的研究员共同深入探讨了参数高效微调(PEFT)技术在大模型中的应用及发展方向。PEFT 技术为预训练模型提供了一种高效的适配方法,专门用于下游任务。该技术通过保持大部分预训练参数不变,仅对极少数参数进行微调,使得大模型能够更加灵活和高效地适应各种不同的下游任务。
  2. 4 月 30 日,麻省理工学院、加州理工学院、东北大学等团队联合进行研究出一种全新的神经网络架构 KAN,该架构与传统的 MLP 架构截然不同,并且能够在数学和物理问题上以更少的参数达到更高的精确度。在函数拟合、偏微分方程求解,甚至处理凝聚态物理方面,KAN 的表现都超越了 MLP。此外,KAN 在处理大模型时自然避免了灾难性遗忘的问题,并且很容易将人类的习惯性偏差或特定领域的知识融入其中。

应用探索

新产品新应用 / 功能

  1. 4 月 29 日,GitHub 推出了 Copilot Workspace 的技术预览版。这是一个由 GitHub 设计的开发环境,它基于多种 Copilot 代理,允许开发者使用自然语言与代理进行互动。在 Copilot Workspace 中,开发者可以进行头脑风暴、规划、构建、测试以及执行程序代码,并且能够查看从初步想法到最终代码实现的整个开发过程,这使得开发者能够更快、更轻松地发挥其创造力。
  2. 5 月 1 日,人工智能创业公司 Anthropic 首次推出旗下大模型产品 Claude 的移动端 App iOS 版本,只有 11MB。功能包括:允许用户与网络聊天实现无缝同步,聊天可以跨设备持续进行;用户可随时随地使用照片、拍摄新照片、上传文件,同时支持实时图像分析和态势感知功能;对于所有订阅计划用户,包括 Pro 和 Team,都可免费下载并开放使用这款应用程序。

其他

  1. 4 月 27 日,八位具身智能领域的企业创始人、技术负责人和专家在中关村论坛年会未来「人工智能先锋论坛」上展开了一场关于具身智能的深度对话,讨论了关于具身智能发展路径,当前的技术水平,发展瓶颈和难题等内容;
  2. 5 月 4 日,斯坦福大学教授李飞飞正在筹划成立一家 AI 公司,并已成功完成了种子轮融资。该公司将专注于开发“空间智能”技术,目标是使人工智能能够像人类一样对视觉信息进行复杂推理和处理。此轮融资的投资方包括硅谷风投 a16z 和 Radical Ventures。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

这篇关于国产版Sora到来!视频大模型更上一层楼的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/980174

相关文章

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达

智能客服到个人助理,国内AI大模型如何改变我们的生活?

引言 随着人工智能(AI)技术的高速发展,AI大模型越来越多地出现在我们的日常生活和工作中。国内的AI大模型在过去几年里取得了显著的进展,不少独创的技术点和实际应用令人瞩目。 那么,国内的AI大模型有哪些独创的技术点?它们在实际应用中又有哪些出色表现呢?此外,普通人又该如何利用这些大模型提升工作和生活的质量和效率呢?本文将为你一一解析。 一、国内AI大模型的独创技术点 多模态学习 多

OpenCompass:大模型测评工具

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

模型压缩综述

https://www.cnblogs.com/shixiangwan/p/9015010.html

百度OCR识别结构结构化处理视频

https://edu.csdn.net/course/detail/10506

AI赋能天气:微软研究院发布首个大规模大气基础模型Aurora

编者按:气候变化日益加剧,高温、洪水、干旱,频率和强度不断增加的全球极端天气给整个人类社会都带来了难以估计的影响。这给现有的天气预测模型提出了更高的要求——这些模型要更准确地预测极端天气变化,为政府、企业和公众提供更可靠的信息,以便做出及时的准备和响应。为了应对这一挑战,微软研究院开发了首个大规模大气基础模型 Aurora,其超高的预测准确率、效率及计算速度,实现了目前最先进天气预测系统性能的显著

PyTorch模型_trace实战:深入理解与应用

pytorch使用trace模型 1、使用trace生成torchscript模型2、使用trace的模型预测 1、使用trace生成torchscript模型 def save_trace(model, input, save_path):traced_script_model = torch.jit.trace(model, input)<

关于文章“python+百度语音识别+星火大模型+讯飞语音合成的语音助手”报错的修改

前言 关于我的文章:python+百度语音识别+星火大模型+讯飞语音合成的语音助手,运行不起来的问题 文章地址: https://blog.csdn.net/Phillip_xian/article/details/138195725?spm=1001.2014.3001.5501 1.报错问题 如果运行中报错,且报错位置在Xufi_Voice.py文件中的pcm_2_wav,如下图所示