Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究

本文主要是介绍Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Awesome-LLMs-for-Video-Understanding 是 基于大型语言模型的视频理解研究

  • github : https://github.com/yunlong10/Awesome-LLMs-for-Video-Understanding
  • paper:Video Understanding with Large Language Models: A Survey
    https://arxiv.org/pdf/2312.17432

视频理解的发展

image


为什么我们需要 vid-llms ?

image


😎 Vid-LLMs:模型

image


🤖基于llm的视频代理

TitleModelDateCodeVenue
Socratic Models: Composing Zero-Shot Multimodal Reasoning with LanguageSocratic Models04/2022project pagearXiv
Video ChatCaptioner: Towards Enriched Spatiotemporal Descriptions githubVideo ChatCaptioner04/2023codearXiv
VLog: Video as a Long Document githubVLog04/2023code-
ChatVideo: A Tracklet-centric Multimodal and Versatile Video Understanding SystemChatVideo04/2023project pagearXiv
MM-VID: Advancing Video Understanding with GPT-4V(ision)MM-VID10/2023-arXiv
MISAR: A Multimodal Instructional System with Augmented Reality githubMISAR10/2023project pageICCV
Grounding-Prompter: Prompting LLM with Multimodal Information for Temporal Sentence Grounding in Long VideosGrounding-Prompter12/2023-arXiv
NaVid: Video-based VLM Plans the Next Step for Vision-and-Language NavigationNaVid02/2024project page -RSS
VideoAgent: A Memory-augmented Multimodal Agent for Video UnderstandingVideoAgent03/2024project pagearXiv

👾 Vid-LLM 预训练

标题模型日期代码聚会地点
从大型语言模型中学习视频表示 githubLaViLa12/2022代码CVPR的
Vid2Seq:密集视频字幕 视觉语言模型 的大规模预训练Vid2Seq02/2023代码CVPR的
一个 视觉-音频-字幕-文本全模态基础模型和数据集 githubVAST05/2023代码神经IPS
Merlin : 赋予多式联运 LLM 以远见Merlin12/2023-arXiv的

👀Vid-LLM指令调优


使用连接适配器进行微调
标题模型日期代码聚会地点
Video- llama : 一个用于视频理解的教学微调视觉语言模型 githubVideo-LLaMA06/2023代码arXiv的
VALLEY : 视频助手与大语言模型增强能力 githubVALLEY06/2023代码-
视频聊天技术:通过大视觉和语言模型实现详细的视频理解 githubVideo-ChatGPT06/2023代码arXiv的
多模态语言建模与图像、音频、视频和文本集成 githubMacaw-LLM06/2023代码arXiv的
LLMVA-GEBC:用于通用事件边界字幕的带有视频适配器的大型语言模型 githubLLMVA-GEBC06/2023代码CVPR的
Youku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集 githubmPLUG-video06/2023代码arXiv的
MovieChat:从密集令牌到稀疏记忆的长视频理解 githubmPLUG-video07/2023代码arXiv的
大型语言模型 是视频问答的时间 和因果推理器 githubLLaMA-VQA10/2023代码EMNLP
Video-LLaVA:通过投影前的对齐学习统一的视觉表现 githubVideo-LLaVA11/2023代码arXiv的
Chat-UniVi:统一的视觉表示使大型语言模型具有图像和视频理解能力 githubChat-UniVi11/2023代码arXiv的
LLaMA-VID:在大型语言模型中,一个图像值2个符号 githubLLaMA-VID11/2023代码arXiv的
VISTA-LLAMA:可靠的视频叙述者通过相等距离的视觉标记VISTA-LLAMA12/2023-arXiv的
**视频理解视听 LLM **-12/2023-arXiv的
AutoAD:上下文中的电影描述AutoAD06/2023代码CVPR的
AutoAD II:续集-谁,什么时候,什么在电影音频描述AutoAD II10/2023-ICCV
多模态大型语言模型的细粒度视听联合表示 githubFAVOR10/2023代码arXiv的
**VideoLLaMA2:推进时空建模和音频理解视频 LLM ** githubVideoLLaMA206/2024代码arXiv的

使用插入适配器进行微调
标题模型日期代码聚会地点
Otter : 具有上下文指令调优的多模态模型 githubOtter06/2023代码arXiv的
VideoLLM : 用大语言模型建模视频序列 github视频 LLM05/2023代码arXiv的

混合适配器微调
标题模型日期代码聚会地点
VTimeLLM:授权 LLM 掌握视频时刻 githubVTimeLLM11/2023代码arXiv的
GPT4Video:用于指令跟随理解和安全意识生成的统一多模态大语言模型GPT4Video11/2023-arXiv的

🦾混合方法

标题模型日期代码聚会地点
VideoChat:以聊天为中心的视频理解 githubVideoChat05/2023代码演示arXiv的
PG-Video-LLaVA:像素接地大型视频语言模型 githubPG-Video-LLaVA11/2023代码arXiv的
TimeChat:用于长视频理解的时间敏感多模态大型语言模型 githubTimeChat12/2023代码CVPR的
Video-GroundingDINO : 走向开放词汇时空视频接地 githubVideo-GroundingDINO12/2023代码arXiv的
一个视频价值4096个代币:用语言描述视频,以零镜头理解它们Video409605/2023EMNLP

🦾免培训方法

标题模型日期代码聚会地点
SlowFast-LLaVA : 视频大型语言模型的强大无训练基线SlowFast-LLaVA07/2024-arXiv的


任务、数据集和基准


认知与预期
名字日期链接聚会地点
Charades家庭中的好莱坞:众包数据收集以了解活动2016链接ECCV
YouTube8MYouTube-8M:一个大规模视频分类基准2016链接-
ActivityNetActivityNet:人类活动理解的大规模视频基准2015链接CVPR的
Kinetics-GEBCGEB:通用事件边界标注、基础和检索的基准2022链接ECCV
**Kinetics-400动力学人类动作视频数据集2017链接-
VidChapters-7MVidChapters-7M : 视频章节的规模2023链接神经IPS

标题和描述
名字日期链接聚会地点
微软研究视频描述语料库 | Microsoft Research Video Description Corpus (MSVD)为释义评估收集高度平行的数据2011链接ACL
微软研究院视频转文本(MSR-VTT)MSR-VTT:用于桥接视频和语言的大型视频描述数据集2016链接CVPR
Tumblr GIF (GIF)TGIF:动画GIF描述的新数据集和基准2016链接CVPR
Charades家庭中的好莱坞:活动理解的众包数据收集2016链接ECCV
Charades-Ego演员和观察者:第一人称和第三人称视频的联合建模2018链接CVPR
ActivityNet Captions视频中的密集字幕事件2017链接ICCV
HowTo100mHowTo100M:通过观看1亿段视频片段来学习文本视频嵌入2019链接ICCV
Movie Audio Descriptions (MAD)一个可扩展的数据集,用于从电影音频描述的视频的语言基础2021链接CVPR的
YouCook2基于网络教学视频的程序自动学习2017链接AAAI
MovieNetMovieNet:电影理解的整体数据集2020链接ECCV
Youku-mPLUGYouku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集2023链接arXiv
Video Timeline Tags (ViTT)密集视频字幕的多模态预训练2020链接AACL-IJCNLP
TVSumTVSum:使用标题总结网络视频2015链接CVPR的
SumMe从用户视频创建摘要2014链接ECCV
VideoXumVideoXum:视频的跨模态视觉和纹理摘要2023链接IEEE Trans Multimedia
Multi-Source Video Captioning (MSVC)**VideoLLaMA2:推进时空建模和音频理解视频 LLM **2024链接arXiv

接地与回收
名字日期链接聚会地点
Epic-Kitchens-100重新调整自我中心视野2021链接IJCV
VCR (Visual Commonsense Reasoning)从识别到认知:视觉常识推理2019链接CVPR的
Ego4D-MQ 和 Ego4D-NLQEgo4D:环游世界在3000小时的自我中心视频2021链接CVPR的
Vid-STG它在哪里:多形式句子的时空视频基础2020链接CVPR的
Charades-STATALL:通过语言查询进行时间活动定位2017链接ICCV
DiDeMo用自然语言定位视频中的瞬间2017链接ICCV

问题回答
名字日期链接聚会地点
MSVD-QA通过对外观和动作的逐渐细化的注意进行视频问答2017链接ACM Multimedia
MSRVTT-QA通过对外观和动作的逐渐细化的注意进行视频问答2017链接ACM Multimedia
TGIF-QATGIF-QA:面向视觉问答的时空推理2017链接CVPR
ActivityNet-QAActivityNet-QA:一个通过问答来理解复杂网络视频的数据集2019链接AAAI
Pororo-QADeepStory:视频故事QA由深度嵌入式记忆网络2017链接IJCAI
TVQATVQA:本地化,组合视频问答2018链接EMNLP

视频教学调优

预训练 数据集
名字日期链接聚会地点
VidChapters-7分钟视频章节- 7m:视频章节的规模2023链接神经IPS
值为1米VALOR:视觉-听觉-语言全感知预训练模型和数据集2023链接arXiv的
Youku-mPLUGYouku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集2023链接arXiv的
InternVid(英语:InternVid)intervid:用于多模态理解和生成的大规模视频文本数据集2023链接arXiv的
VAST-27M一个视觉-音频-字幕-文本全模态基础模型和数据集2023链接神经IPS

微调数据集
名字日期链接聚会地点
模仿它MIMIC-IT:多模态上下文指令调谐2023链接arXiv的
VideoInstruct100K视频聊天技术:通过大视觉和语言模型实现详细的视频理解2023链接arXiv的
TimeIT公司TimeChat:用于长视频理解的时间敏感多模态大型语言模型2023链接CVPR的

基于视频的大型语言模型基准
标题日期代码聚会地点
LVBench:一个极长的视频理解基准06/2024代码-
Video-Bench:用于评估基于视频的大型语言模型的综合基准和工具包11/2023代码-
感知测试:多模态视频模型的诊断基准05/2023代码NeurIPS 2023, ICCV 2023 研讨会
Youku-mPLUG:用于预训练和基准测试的1000万大规模中文视频语言数据集 github07/2023代码-
FETV:开放域文本到视频生成的细粒度评估基准 github11/2023代码神经IPS 2023
MoVQA:理解长篇电影的通用问答基准12/2023代码-
MVBench:一个全面的多模态视频理解基准12/2023代码-
TempCompass:视频 LLM 真的懂视频吗? github03/2024代码ACL 2024
Video- mme:首个视频分析中多模态 LLM 的综合评估基准 github06/2024代码-
视频幻觉:在大型视频语言模型中评估内在和外在幻觉 github06/2024代码-

2024-08-24(六)

这篇关于Awesome-LLMs-for-Video-Understanding - 基于大型语言模型的视频理解研究的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1104912

相关文章

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

Go语言中三种容器类型的数据结构详解

《Go语言中三种容器类型的数据结构详解》在Go语言中,有三种主要的容器类型用于存储和操作集合数据:本文主要介绍三者的使用与区别,感兴趣的小伙伴可以跟随小编一起学习一下... 目录基本概念1. 数组(Array)2. 切片(Slice)3. 映射(Map)对比总结注意事项基本概念在 Go 语言中,有三种主要

Java如何获取视频文件的视频时长

《Java如何获取视频文件的视频时长》文章介绍了如何使用Java获取视频文件的视频时长,包括导入maven依赖和代码案例,同时,也讨论了在运行过程中遇到的SLF4J加载问题,并给出了解决方案... 目录Java获取视频文件的视频时长1、导入maven依赖2、代码案例3、SLF4J: Failed to lo

C语言中自动与强制转换全解析

《C语言中自动与强制转换全解析》在编写C程序时,类型转换是确保数据正确性和一致性的关键环节,无论是隐式转换还是显式转换,都各有特点和应用场景,本文将详细探讨C语言中的类型转换机制,帮助您更好地理解并在... 目录类型转换的重要性自动类型转换(隐式转换)强制类型转换(显式转换)常见错误与注意事项总结与建议类型

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

Python实现多路视频多窗口播放功能

《Python实现多路视频多窗口播放功能》这篇文章主要为大家详细介绍了Python实现多路视频多窗口播放功能的相关知识,文中的示例代码讲解详细,有需要的小伙伴可以跟随小编一起学习一下... 目录一、python实现多路视频播放功能二、代码实现三、打包代码实现总结一、python实现多路视频播放功能服务端开