Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究

本文主要是介绍Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Awesome-LLMs-for-Video-Understanding 是 基于大型语言模型的视频理解研究

  • github : https://github.com/yunlong10/Awesome-LLMs-for-Video-Understanding
  • paper:Video Understanding with Large Language Models: A Survey
    https://arxiv.org/pdf/2312.17432

视频理解的发展

image


为什么我们需要 vid-llms ?

image


😎 Vid-LLMs:模型

image


🤖基于llm的视频代理

TitleModelDateCodeVenue
Socratic Models: Composing Zero-Shot Multimodal Reasoning with LanguageSocratic Models04/2022project pagearXiv
Video ChatCaptioner: Towards Enriched Spatiotemporal Descriptions githubVideo ChatCaptioner04/2023codearXiv
VLog: Video as a Long Document githubVLog04/2023code-
ChatVideo: A Tracklet-centric Multimodal and Versatile Video Understanding SystemChatVideo04/2023project pagearXiv
MM-VID: Advancing Video Understanding with GPT-4V(ision)MM-VID10/2023-arXiv
MISAR: A Multimodal Instructional System with Augmented Reality githubMISAR10/2023project pageICCV
Grounding-Prompter: Prompting LLM with Multimodal Information for Temporal Sentence Grounding in Long VideosGrounding-Prompter12/2023-arXiv
NaVid: Video-based VLM Plans the Next Step for Vision-and-Language NavigationNaVid02/2024project page -RSS
VideoAgent: A Memory-augmented Multimodal Agent for Video UnderstandingVideoAgent03/2024project pagearXiv

👾 Vid-LLM 预训练

标题模型日期代码聚会地点
从大型语言模型中学习视频表示 githubLaViLa12/2022代码CVPR的
Vid2Seq:密集视频字幕 视觉语言模型 的大规模预训练Vid2Seq02/2023代码CVPR的
一个 视觉-音频-字幕-文本全模态基础模型和数据集 githubVAST05/2023代码神经IPS
Merlin : 赋予多式联运 LLM 以远见Merlin12/2023-arXiv的

👀Vid-LLM指令调优


使用连接适配器进行微调
标题模型日期代码聚会地点
Video- llama : 一个用于视频理解的教学微调视觉语言模型 githubVideo-LLaMA06/2023代码arXiv的
VALLEY : 视频助手与大语言模型增强能力 githubVALLEY06/2023代码-
视频聊天技术:通过大视觉和语言模型实现详细的视频理解 githubVideo-ChatGPT06/2023代码arXiv的
多模态语言建模与图像、音频、视频和文本集成 githubMacaw-LLM06/2023代码arXiv的
LLMVA-GEBC:用于通用事件边界字幕的带有视频适配器的大型语言模型 githubLLMVA-GEBC06/2023代码CVPR的
Youku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集 githubmPLUG-video06/2023代码arXiv的
MovieChat:从密集令牌到稀疏记忆的长视频理解 githubmPLUG-video07/2023代码arXiv的
大型语言模型 是视频问答的时间 和因果推理器 githubLLaMA-VQA10/2023代码EMNLP
Video-LLaVA:通过投影前的对齐学习统一的视觉表现 githubVideo-LLaVA11/2023代码arXiv的
Chat-UniVi:统一的视觉表示使大型语言模型具有图像和视频理解能力 githubChat-UniVi11/2023代码arXiv的
LLaMA-VID:在大型语言模型中,一个图像值2个符号 githubLLaMA-VID11/2023代码arXiv的
VISTA-LLAMA:可靠的视频叙述者通过相等距离的视觉标记VISTA-LLAMA12/2023-arXiv的
**视频理解视听 LLM **-12/2023-arXiv的
AutoAD:上下文中的电影描述AutoAD06/2023代码CVPR的
AutoAD II:续集-谁,什么时候,什么在电影音频描述AutoAD II10/2023-ICCV
多模态大型语言模型的细粒度视听联合表示 githubFAVOR10/2023代码arXiv的
**VideoLLaMA2:推进时空建模和音频理解视频 LLM ** githubVideoLLaMA206/2024代码arXiv的

使用插入适配器进行微调
标题模型日期代码聚会地点
Otter : 具有上下文指令调优的多模态模型 githubOtter06/2023代码arXiv的
VideoLLM : 用大语言模型建模视频序列 github视频 LLM05/2023代码arXiv的

混合适配器微调
标题模型日期代码聚会地点
VTimeLLM:授权 LLM 掌握视频时刻 githubVTimeLLM11/2023代码arXiv的
GPT4Video:用于指令跟随理解和安全意识生成的统一多模态大语言模型GPT4Video11/2023-arXiv的

🦾混合方法

标题模型日期代码聚会地点
VideoChat:以聊天为中心的视频理解 githubVideoChat05/2023代码演示arXiv的
PG-Video-LLaVA:像素接地大型视频语言模型 githubPG-Video-LLaVA11/2023代码arXiv的
TimeChat:用于长视频理解的时间敏感多模态大型语言模型 githubTimeChat12/2023代码CVPR的
Video-GroundingDINO : 走向开放词汇时空视频接地 githubVideo-GroundingDINO12/2023代码arXiv的
一个视频价值4096个代币:用语言描述视频,以零镜头理解它们Video409605/2023EMNLP

🦾免培训方法

标题模型日期代码聚会地点
SlowFast-LLaVA : 视频大型语言模型的强大无训练基线SlowFast-LLaVA07/2024-arXiv的


任务、数据集和基准


认知与预期
名字日期链接聚会地点
Charades家庭中的好莱坞:众包数据收集以了解活动2016链接ECCV
YouTube8MYouTube-8M:一个大规模视频分类基准2016链接-
ActivityNetActivityNet:人类活动理解的大规模视频基准2015链接CVPR的
Kinetics-GEBCGEB:通用事件边界标注、基础和检索的基准2022链接ECCV
**Kinetics-400动力学人类动作视频数据集2017链接-
VidChapters-7MVidChapters-7M : 视频章节的规模2023链接神经IPS

标题和描述
名字日期链接聚会地点
微软研究视频描述语料库 | Microsoft Research Video Description Corpus (MSVD)为释义评估收集高度平行的数据2011链接ACL
微软研究院视频转文本(MSR-VTT)MSR-VTT:用于桥接视频和语言的大型视频描述数据集2016链接CVPR
Tumblr GIF (GIF)TGIF:动画GIF描述的新数据集和基准2016链接CVPR
Charades家庭中的好莱坞:活动理解的众包数据收集2016链接ECCV
Charades-Ego演员和观察者:第一人称和第三人称视频的联合建模2018链接CVPR
ActivityNet Captions视频中的密集字幕事件2017链接ICCV
HowTo100mHowTo100M:通过观看1亿段视频片段来学习文本视频嵌入2019链接ICCV
Movie Audio Descriptions (MAD)一个可扩展的数据集,用于从电影音频描述的视频的语言基础2021链接CVPR的
YouCook2基于网络教学视频的程序自动学习2017链接AAAI
MovieNetMovieNet:电影理解的整体数据集2020链接ECCV
Youku-mPLUGYouku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集2023链接arXiv
Video Timeline Tags (ViTT)密集视频字幕的多模态预训练2020链接AACL-IJCNLP
TVSumTVSum:使用标题总结网络视频2015链接CVPR的
SumMe从用户视频创建摘要2014链接ECCV
VideoXumVideoXum:视频的跨模态视觉和纹理摘要2023链接IEEE Trans Multimedia
Multi-Source Video Captioning (MSVC)**VideoLLaMA2:推进时空建模和音频理解视频 LLM **2024链接arXiv

接地与回收
名字日期链接聚会地点
Epic-Kitchens-100重新调整自我中心视野2021链接IJCV
VCR (Visual Commonsense Reasoning)从识别到认知:视觉常识推理2019链接CVPR的
Ego4D-MQ 和 Ego4D-NLQEgo4D:环游世界在3000小时的自我中心视频2021链接CVPR的
Vid-STG它在哪里:多形式句子的时空视频基础2020链接CVPR的
Charades-STATALL:通过语言查询进行时间活动定位2017链接ICCV
DiDeMo用自然语言定位视频中的瞬间2017链接ICCV

问题回答
名字日期链接聚会地点
MSVD-QA通过对外观和动作的逐渐细化的注意进行视频问答2017链接ACM Multimedia
MSRVTT-QA通过对外观和动作的逐渐细化的注意进行视频问答2017链接ACM Multimedia
TGIF-QATGIF-QA:面向视觉问答的时空推理2017链接CVPR
ActivityNet-QAActivityNet-QA:一个通过问答来理解复杂网络视频的数据集2019链接AAAI
Pororo-QADeepStory:视频故事QA由深度嵌入式记忆网络2017链接IJCAI
TVQATVQA:本地化,组合视频问答2018链接EMNLP

视频教学调优

预训练 数据集
名字日期链接聚会地点
VidChapters-7分钟视频章节- 7m:视频章节的规模2023链接神经IPS
值为1米VALOR:视觉-听觉-语言全感知预训练模型和数据集2023链接arXiv的
Youku-mPLUGYouku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集2023链接arXiv的
InternVid(英语:InternVid)intervid:用于多模态理解和生成的大规模视频文本数据集2023链接arXiv的
VAST-27M一个视觉-音频-字幕-文本全模态基础模型和数据集2023链接神经IPS

微调数据集
名字日期链接聚会地点
模仿它MIMIC-IT:多模态上下文指令调谐2023链接arXiv的
VideoInstruct100K视频聊天技术:通过大视觉和语言模型实现详细的视频理解2023链接arXiv的
TimeIT公司TimeChat:用于长视频理解的时间敏感多模态大型语言模型2023链接CVPR的

基于视频的大型语言模型基准
标题日期代码聚会地点
LVBench:一个极长的视频理解基准06/2024代码-
Video-Bench:用于评估基于视频的大型语言模型的综合基准和工具包11/2023代码-
感知测试:多模态视频模型的诊断基准05/2023代码NeurIPS 2023, ICCV 2023 研讨会
Youku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集 github07/2023代码-
FETV:开放域文本到视频生成的细粒度评估基准 github11/2023代码神经IPS 2023
MoVQA:理解长篇电影的通用问答基准12/2023代码-
MVBench:一个全面的多模态视频理解基准12/2023代码-
TempCompass:视频 LLM 真的懂视频吗? github03/2024代码ACL 2024
Video- mme:首个视频分析中多模态 LLM 的综合评估基准 github06/2024代码-
视频幻觉:在大型视频语言模型中评估内在和外在幻觉 github06/2024代码-

2024-08-24(六)

这篇关于Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1104912

相关文章

深入理解C++ 空类大小

《深入理解C++空类大小》本文主要介绍了C++空类大小,规定空类大小为1字节,主要是为了保证对象的唯一性和可区分性,满足数组元素地址连续的要求,下面就来了解一下... 目录1. 保证对象的唯一性和可区分性2. 满足数组元素地址连续的要求3. 与C++的对象模型和内存管理机制相适配查看类对象内存在C++中,规

关于Java内存访问重排序的研究

《关于Java内存访问重排序的研究》文章主要介绍了重排序现象及其在多线程编程中的影响,包括内存可见性问题和Java内存模型中对重排序的规则... 目录什么是重排序重排序图解重排序实验as-if-serial语义内存访问重排序与内存可见性内存访问重排序与Java内存模型重排序示意表内存屏障内存屏障示意表Int

C语言线程池的常见实现方式详解

《C语言线程池的常见实现方式详解》本文介绍了如何使用C语言实现一个基本的线程池,线程池的实现包括工作线程、任务队列、任务调度、线程池的初始化、任务添加、销毁等步骤,感兴趣的朋友跟随小编一起看看吧... 目录1. 线程池的基本结构2. 线程池的实现步骤3. 线程池的核心数据结构4. 线程池的详细实现4.1 初

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了