AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.03.31-2024.04.05

本文主要是介绍AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.03.31-2024.04.05,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录~

  • 1.Know Your Neighbors: Improving Single-View Reconstruction via Spatial Vision-Language Reasoning
  • 2.DeViDe: Faceted medical knowledge for improved medical vision-language pre-training
  • 3.Is CLIP the main roadblock for fine-grained open-world perception?
  • 4.MiniGPT4-Video: Advancing Multimodal LLMs for Video Understanding with Interleaved Visual-Textual Tokens
  • 5.Diverse and Tailored Image Generation for Zero-shot Multi-label Classification
  • 6.LVLM-Intrepret: An Interpretability Tool for Large Vision-Language Models
  • 7.Harnessing the Power of Large Vision Language Models for Synthetic Image Detection
  • 8.RESSA: Repair Sparse Vision-Language Models via Sparse Cross-Modality Adaptation
  • 9.What Are We Measuring When We Evaluate Large Vision-Language Models? An Analysis of Latent Factors and Biases
  • 10.ViTamin: Designing Scalable Vision Models in the Vision-Language Era
  • 11.VLRM: Vision-Language Models act as Reward Models for Image Captioning
  • 12.OVFoodSeg: Elevating Open-Vocabulary Food Image Segmentation via Image-Informed Textual Representation
  • 13.Evaluating Text-to-Visual Generation with Image-to-Text Generation
  • 14.Getting it Right: Improving Spatial Consistency in Text-to-Image Models
  • 15.Learning by Correction: Efficient Tuning Task for Zero-Shot Generative Vision-Language Reasoning
  • 16.From Pixels to Graphs: Open-Vocabulary Scene Graph Generation with Vision-Language Models
  • 17.LLM meets Vision-Language Models for Zero-Shot One-Class Classification
  • 18.Do Vision-Language Models Understand Compound Nouns?
  • 19.TTD: Text-Tag Self-Distillation Enhancing Image-Text Alignment in CLIP to Alleviate Single Tag Bias
  • 20.CLIP-driven Outliers Synthesis for few-shot OOD detection
  • 21.Bayesian Exploration of Pre-trained Models for Low-shot Image Classification
  • 22.Design as Desired: Utilizing Visual Question Answering for Multimodal Pre-training

1.Know Your Neighbors: Improving Single-View Reconstruction via Spatial Vision-Language Reasoning

标题:了解你的邻居:通过空间视觉语言推理改进单视图重构

author:Rui Li, Tobias Fischer, Mattia Segu, Marc Pollefeys, Luc Van Gool, Federico Tombari

publish:CVPR 2024. Project page: https://ruili3.github.io/kyn

date Time:2024-04-04

paper pdf:http://arxiv.org/pdf/2404.03658v1

摘要
从单个视图恢复三维场景几何是计算机视觉领域的一个基本问题,但也是一个难题。传统的深度估计方法只能推断出仅限于图像平面的 2.5D 场景表示,而最新的基于辐射场的方法则能重建完整的 3D 表示。然而,这些方法在处理遮挡区域时仍有困难,因为在没有视觉观察的情况下推断几何图形需要(i)周围环境的语义知识,以及(ii)空间上下文推理。我们提出的 KYN 是一种用于单视角场景重建的新方法,它通过推理语义和空间上下文来预测每个点的密度。我们引入了视觉语言调制模块,利用细粒度语义信息丰富点特征。我们通过一种语言引导的空间注意力机制来聚合整个场景中的点表征,从而根据三维语义背景来预测每个点的密度。我们的研究表明,与单独预测每个三维点的密度相比,KYN 能够改善三维形状的恢复。我们在 KITTI-360 上的场景和物体重建中取得了最先进的结果,并显示与之前的工作相比,零点泛化得到了改善。项目页面:https://ruili3.github.io/kyn。

2.DeViDe: Faceted medical knowledge for improved medical vision-language pre-training

标题:DeViDe:面面俱到的医学知识,用于改进医学视觉语言预培训

author:Haozhe Luo, Ziyu Zhou, Corentin Royer, Anjany Sekuboyina, Bjoern Menze

publish:arXiv admin note: text overlap with arXiv:2208.04060 by other authors

date Time:2024-04-04

paper pdf:http://arxiv.org/pdf/2404.03618v1

摘要
胸部 X 光片的视觉语言预培训已经取得了长足的进步,主要是通过利用成对的 X 光片和放射学报告。然而,现有方法在有效编码医学知识方面往往面临挑战。虽然放射学报告提供了对当前疾病表现的见解,但医学定义(当代方法所使用的定义)往往过于抽象,造成了知识上的空白。为了解决这个问题,我们提出了 DeViDe,这是一种基于转换器的新方法,可利用开放网络中的放射描述。这些描述概括了射线照片中疾病的一般视觉特征,与抽象定义和放射学报告相结合,提供了一个整体的知识快照。DeViDe 融合了知识增强视觉语言配准的三个关键功能:首先,采用基于大型语言模型的增强技术,对不同来源的医学知识进行同质化。其次,将这些知识与不同粒度的图像信息进行配准。第三,提出了一个新颖的投影层,以处理将每幅图像与多标签设置中出现的多个描述进行对齐的复杂性。在零镜头设置中,DeViDe 在外部数据集上的表现与完全监督模型相当,并在三个大规模数据集上取得了一流的结果。此外,在四项下游任务和六项分割任务中对 DeViDe 进行的微调显示了它在不同分布数据中的卓越性能。

3.Is CLIP the main roadblock for fine-grained open-world perception?

标题:CLIP 是精细化开放世界感知的主要障碍吗?

author:Lorenzo Bianchi, Fabio Carrara, Nicola Messina, Fabrizio Falchi

date Time:2024-04-04

paper pdf:http://arxiv.org/pdf/2404.03539v1

摘要
现代应用越来越需要灵活的计算机视觉模型,以适应训练过程中未遇到的新概念。这种必要性在扩展现实、机器人和自动驾驶等新兴领域至关重要,因为这些领域需要对开放世界的刺激做出反应。其中一个关键要素是能够根据推理时定义的自由形式文本查询来识别对象–这项任务被称为开放词汇对象检测。CLIP 等多模态骨干是当前开放世界感知解决方案的主要支持技术。尽管在通用查询方面表现出色,但最近的研究强调了开放词汇环境下细粒度识别能力的局限性,即在区分颜色、形状和材料等细微物体特征方面的局限性。在本文中,我们对这些开放词汇的对象识别限制进行了详细的研究,以找到其根本原因。我们评估了最常用的视觉语言骨干软件 CLIP 的性能与细粒度物体匹配基准的对比情况,揭示了开放词汇物体检测器及其骨干软件的局限性之间的有趣类比。实验表明,缺乏细粒度理解的原因是 CLIP 潜在空间中物体特征的可分离性较差。因此,我们试图了解细粒度知识是否存在于 CLIP 嵌入中,但由于余弦相似性匹配函数不合适等原因,在推理时没有被利用,因为余弦相似性匹配函数可能会忽略重要的对象特征。我们的初步实验表明,简单的 CLIP latent-space 重新投影有助于分离细粒度概念,为开发能够处理细粒度细节的骨干铺平了道路。重现这些实验的代码可在 https://github.com/lorebianchi98/FG-CLIP 上获取。

4.MiniGPT4-Video: Advancing Multimodal LLMs for Video Understanding with Interleaved Visual-Textual Tokens

标题:MiniGPT4-Video:利用交错视觉-文本标记推进用于视频理解的多模态 LLM

author:Kirolos Ataallah, Xiaoqian Shen, Eslam Abdelrahman, Essam Sleiman, Deyao Zhu, Jian Ding, Mohamed Elhoseiny

publish:6 pages,8 figures

date Time:2024-04-04

paper pdf:http://arxiv.org/pdf/2404.03413v1

摘要
本文介绍的 MiniGPT4-Video 是一种多模态大语言模型(LLM),专为理解视频而设计。该模型能够同时处理时态视觉数据和文本数据,因此善于理解视频的复杂性。MiniGPT-v2 在将单幅图像的视觉特征转化为 LLM 空间方面表现出色,并在各种图像-文本基准测试中取得了令人印象深刻的成绩,本文在 MiniGPT-v2 的成功基础上,将该模型的功能扩展到处理帧序列,使其能够理解视频。MiniGPT4-video 不仅考虑了视觉内容,还纳入了文本对话,使该模型能够有效地回答涉及视觉和文本内容的查询。所提出的模型优于现有的先进方法,在 MSVD、MSRVTT、TGIF 和 TVQA 基准测试中分别获得了 4.22%、1.13%、20.82% 和 13.1% 的收益。我们的模型和代码已在 https://vision-cair.github.io/MiniGPT4-video/ 公开发布。

5.Diverse and Tailored Image Generation for Zero-shot Multi-label Classification

标题:为零镜头多标签分类生成多样化的定制图像

author:Kaixin Zhang, Zhixiang Yuan, Tao Huang

date Time:2024-04-04

paper pdf:http://arxiv.org/pdf/2404.03144v1

摘要
最近,零镜头多标签分类因其无需人工标注即可对未见标签进行预测的能力而备受关注。尽管如此,目前流行的方法往往使用已见类别作为未见类别的不完美替代,从而导致性能不理想。从文本到图像生成模型在生成逼真图像方面的成功经验中汲取灵感,我们提出了一种创新的解决方案:生成合成数据,以构建一个明确定制的训练集,用于对未见标签进行无代理训练。我们的方法引入了一种新颖的图像生成框架,可生成多标签的未见类别合成图像,用于分类器训练。为了提高生成图像的多样性,我们利用预先训练好的大型语言模型来生成不同的提示。利用预先训练的多模态 CLIP 模型作为判别器,我们可以评估生成的图像是否准确地代表了目标类别。这样就能自动过滤生成的不准确图像,从而保持分类器的准确性。为了完善文本提示以更精确、更有效地生成多标签对象,我们引入了基于 CLIP 分数的判别损失,以微调扩散模型中的文本编码器。此外,为了增强目标任务的视觉特征,同时保持原始特征的泛化,并减轻因微调整个视觉编码器而导致的灾难性遗忘,我们提出了一个受变压器注意机制启发的特征融合模块。该模块有助于更有效地捕捉多个对象之间的全局依赖关系。广泛的实验结果验证了我们方法的有效性,表明与最先进的方法相比,我们的方法有了显著的改进。

6.LVLM-Intrepret: An Interpretability Tool for Large Vision-Language Models

标题:LVLM-Intrepret:大型视觉语言模型的可解释性工具

author:Gabriela Ben Melech Stan, Raanan Yehezkel Rohekar, Yaniv Gurwicz, Matthew Lyle Olson, Anahita Bhiwandiwalla, Estelle Aflalo, Chenfei Wu, Nan Duan, Shao-Yen Tseng, Vasudev Lal

date Time:2024-04-03

paper pdf:http://arxiv.org/pdf/2404.03118v1

摘要
在快速发展的人工智能领域,多模态大型语言模型正成为一个备受关注的领域。这些模型结合了各种形式的数据输入,正变得越来越流行。然而,了解其内部机制仍然是一项复杂的任务。可解释性工具和机制领域已经取得了许多进展,但仍有许多问题需要探索。在这项工作中,我们提出了一个新颖的交互式应用程序,旨在理解大型视觉语言模型的内部机制。我们的界面旨在增强图像补丁的可解释性(图像补丁在生成答案中起着重要作用),并评估语言模型在图像中输出结果的有效性。通过我们的应用程序,用户可以系统地研究模型,发现系统的局限性,为增强系统能力铺平道路。最后,我们将介绍一个案例研究,说明我们的应用如何帮助理解一个流行的大型多模态模型的失效机制:LLaVA。

7.Harnessing the Power of Large Vision Language Models for Synthetic Image Detection

标题:利用大型视觉语言模型的力量进行合成图像检测

author:Mamadou Keita, Wassim Hamidouche, Hassen Bougueffa, Abdenour Hadid, Abdelmalik Taleb-Ahmed

publish:arXiv admin note: substantial text overlap with arXiv:2404.01959

date Time:2024-04-03

paper pdf:http://arxiv.org/pdf/2404.02726v1

摘要
近年来,能够从文本生成图像的模型的出现引起了人们的极大兴趣,这为从文本描述中生成逼真的图像提供了可能。然而,这些进步也引发了人们对这些图像可能被滥用的担忧,包括制造假新闻和宣传等误导性内容。本研究探讨了使用高级视觉语言模型(VLM)进行合成图像识别的有效性。具体来说,重点是调整最先进的图像标题模型,用于合成图像检测。通过利用大型视觉语言模型的强大理解能力,目的是将真实图像与基于扩散模型生成的合成图像区分开来。本研究利用 BLIP-2 和 ViTGPT2 等视觉语言模型的能力,为合成图像检测的进步做出了贡献。通过定制图像标题模型,我们解决了合成图像在现实世界应用中可能被滥用的难题。本文中描述的结果凸显了 VLM 在合成图像检测领域大有可为的作用,其性能优于传统的基于图像的检测技术。代码和模型见 https://github.com/Mamadou-Keita/VLM-DETECT。

8.RESSA: Repair Sparse Vision-Language Models via Sparse Cross-Modality Adaptation

标题:RESSA:通过稀疏跨模态适配修复稀疏视觉语言模型

author:Shwai He, Tianlong Chen

date Time:2024-04-03

paper pdf:http://arxiv.org/pdf/2404.02424v1

摘要
视觉语言模型(VLM)整合了来自多种模式的不同信息,在各种任务中都取得了显著的成功。然而,在资源有限的情况下,部署由大规模视觉和语言模型组成的 VLMs 会面临挑战。虽然剪枝后的微调提供了一种潜在的解决方案,可以在模型规模较小的情况下保持性能,但其在 VLM 中的应用仍相对欠缺,这就提出了两个主要问题:如何在不同的特定模态模型之间分配稀疏性,以及如何修复剪枝后稀疏 VLM 的性能。为了回答第一个问题,我们对 VLM 的剪枝进行了初步研究,发现以相同的稀疏性比率剪枝视觉模型和语言模型有助于获得近乎最佳的性能。对于第二个问题,与单模态稀疏模型的微调不同,稀疏 VLM 涉及跨模态交互,需要专门的技术进行剪枝后的性能修复。此外,虽然已经提出了参数高效的 LoRA 微调来修复稀疏模型的性能,但由于密集 LoRA 模块与稀疏模型不兼容,破坏了剪枝后模型的稀疏性,因此权重合并是一个重大挑战。为了应对这些挑战,我们提出了通过稀疏跨模态适配修复稀疏视觉语言模型(RESSA)。RESSA 利用跨模态微调来提高特定任务的性能,并促进从原始密集模型中提炼知识。此外,我们还引入了 SparseLoRA,它将稀疏性直接应用于 LoRA 权重,实现了与稀疏模型的无缝集成。我们的实验结果验证了 RESSA 的有效性,展示了显著的提升,例如在 2:4 稀疏度下提升了 11.3%,在非结构化 70% 稀疏度下显著提升了 47.6%。

9.What Are We Measuring When We Evaluate Large Vision-Language Models? An Analysis of Latent Factors and Biases

标题:当我们评估大型视觉语言模型时,我们在测量什么?潜在因素和偏差分析

author:Anthony Meng Huat Tiong, Junqi Zhao, Boyang Li, Junnan Li, Steven C. H. Hoi, Caiming Xiong

date Time:2024-04-03

paper pdf:http://arxiv.org/pdf/2404.02415v1

摘要
视觉语言(VL)模型在巨大的图像-文本数据集上经过预训练后,已经获得了难以评估的广泛VL能力。人们普遍认为,各种视觉语言测试的基础是少数几种视觉语言技能。在本文中,我们进行了大规模迁移学习实验,旨在从数据中发现潜在的 VL 技能。我们发现了一些有趣的特征,这些特征对测试套件的设计具有重要影响。首先,生成任务存在长度偏差,这表明基准应平衡不同输出长度的任务。其次,我们证明了因子分析能够成功识别合理但令人惊讶的 VL 技能因子,这表明基准可以利用类似的分析来选择任务。最后,我们介绍了一个新的数据集 OLIVE (https://github.com/jq-zh/olive-dataset),它模拟了用户在野外的指令,并提出了与我们测试的所有数据集不同的挑战。我们的发现有助于设计平衡且覆盖面广的视觉语言评估方法。

10.ViTamin: Designing Scalable Vision Models in the Vision-Language Era

标题:ViTamin:在视觉语言时代设计可扩展的视觉模型

author:Jieneng Chen, Qihang Yu, Xiaohui Shen, Alan Yuille, Liang-Chieh Chen

publish:CVPR 2024; https://github.com/Beckschen/ViTamin

date Time:2024-04-02

paper pdf:http://arxiv.org/pdf/2404.02132v2

摘要
视觉语言模型(VLMs)的最新突破在视觉领域掀开了新的一页。由于在大规模互联网图像-文本对上进行了训练,VLMs 提供了比 ImageNet 预训练模型更强大、更通用的特征嵌入。然而,尽管 VLM 取得了令人惊叹的成就,虚视觉变换器(ViT)仍然是图像编码器的默认选择。尽管纯变换器在文本编码领域证明了其有效性,但对于图像编码来说,它是否也是如此仍是个问题,特别是考虑到在 ImageNet 基准上提出了各种类型的网络,而遗憾的是,这些网络很少在 VLM 中进行研究。由于数据/模型规模较小,ImageNet 上模型设计的原始结论可能存在局限性和偏差。本文旨在对比语言-图像预训练(CLIP)框架下建立视觉语言时代的视觉模型评估协议。我们提供了一种全面的方法来对不同的视觉模型进行基准测试,涵盖了它们的零点性能以及模型和训练数据规模的可扩展性。为此,我们引入了专为 VLMs 量身定制的新视觉模型 ViTamin。在使用相同的公开 DataComp-1B 数据集和相同的 OpenCLIP 训练方案时,ViTamin-L 的 ImageNet 零点准确率比 ViT-L 高出 2.0%。ViTamin-L 在分类、检索、开放词汇检测和分割以及大型多模态模型等 60 种不同基准测试中取得了可喜的成绩。当进一步扩大模型规模时,参数仅为 436M 的 ViTamin-XL 达到了 82.9% 的 ImageNet 零点准确率,超过了参数多十倍(4.4B)的 EVA-E 所达到的 82.0%。

11.VLRM: Vision-Language Models act as Reward Models for Image Captioning

标题:VLRM:视觉语言模型充当图像字幕的奖励模型

author:Maksim Dzabraev, Alexander Kunitsyn, Andrei Ivaniuta

date Time:2024-04-02

paper pdf:http://arxiv.org/pdf/2404.01911v1

摘要
在这项工作中,我们提出了一种无监督方法,利用强化学习和视觉语言模型(如 CLIP 和 BLIP2-ITM)作为奖励模型,来增强图像字幕模型(在我们的例子中为 BLIP2)。经过 RL 调整的模型能够生成更长、更全面的描述。我们的模型在 MS-COCO Carpathy Test Split 上达到了令人印象深刻的 0.90 R@1 CLIP Recall 分数。 权重见 https://huggingface.co/sashakunitsyn/vlrm-blip2-opt-2.7b。

12.OVFoodSeg: Elevating Open-Vocabulary Food Image Segmentation via Image-Informed Textual Representation

标题:OVFoodSeg:通过图像信息文本表示提升开放词汇食品图像分割水平

author:Xiongwei Wu, Sicheng Yu, Ee-Peng Lim, Chong-Wah Ngo

publish:CVPR 2024; 12 pages

date Time:2024-04-01

paper pdf:http://arxiv.org/pdf/2404.01409v1

摘要
在食品计算领域,由于相同配料之间的类内差异大、新配料层出不穷以及与大型食品分割数据集相关的注释成本高昂,从图像中分割配料构成了巨大挑战。现有方法主要利用封闭词汇和静态文本嵌入设置。这些方法往往无法有效处理配料,尤其是新配料和多样化配料。针对这些局限性,我们推出了 OVFoodSeg,这是一个采用开放式词汇设置并利用视觉上下文增强文本嵌入的框架。通过整合视觉语言模型(VLMs),我们的方法通过两个创新模块(即图像到文本学习器 FoodLearner 和图像信息文本编码器)利用图像特定信息丰富了文本嵌入。OVFoodSeg 的训练过程分为两个阶段:FoodLearner 的预训练和随后的分割学习阶段。预训练阶段使 FoodLearner 具备将视觉信息与专门与食物相关的相应文本表述相匹配的能力,而第二阶段则使 FoodLearner 和图像信息文本编码器适应分割任务。通过解决以往模型的不足,OVFoodSeg取得了显著的进步,在FoodSeg103数据集上实现了平均交叉比联合(mIoU)增加4.9%,为食品图像分割树立了新的里程碑。

13.Evaluating Text-to-Visual Generation with Image-to-Text Generation

标题:评估文本到视觉的生成与图像到文本的生成

author:Zhiqiu Lin, Deepak Pathak, Baiqi Li, Jiayao Li, Xide Xia, Graham Neubig, Pengchuan Zhang, Deva Ramanan

publish:We open-source our data, model, and code at:
https://github.com/linzhiqiu/t2v_metrics ; Project page:
https://linzhiqiu.github.io/papers/vqascore

date Time:2024-04-01

paper pdf:http://arxiv.org/pdf/2404.01291v1

摘要
尽管在生成式人工智能方面取得了重大进展,但由于缺乏有效的衡量标准和标准化基准,综合评估仍具有挑战性。例如,广泛使用的 CLIPScore 可测量(生成的)图像与文本提示之间的对齐度,但对于涉及对象、属性和关系组合的复杂提示,它却无法得出可靠的分数。其中一个原因是,CLIP 的文本编码器可能会臭名昭著地充当 “词袋”,将 "马在吃草 "和 "草在吃马 "这样的提示混为一谈。为了解决这个问题,我们引入了 VQAScore,它使用视觉问题解答(VQA)模型,通过计算对简单的 "此图是否显示’{文本}'?尽管 VQAScore 比现有技术更简单,但使用现成模型计算的 VQAScore 在许多(8 个)图像-文本配准基准中都取得了最先进的结果。我们还使用遵循文献最佳实践的内部模型计算 VQAScore。例如,我们使用双向图像-问题编码器,允许图像嵌入取决于所提问题(反之亦然)。我们的内部模型 CLIP-FlanT5 甚至优于使用专有 GPT-4V 的最强基线。有趣的是,虽然我们只使用图像进行训练,但 VQAScore 还能将文本与视频和 3D 模型进行对齐。通过 VQAScore,研究人员可以使用复杂文本对文本到视觉的生成进行基准测试,从而捕捉真实世界提示的组成结构。我们介绍了 GenAI-Bench,这是一个更具挑战性的基准,它包含 1,600 个组合文本提示,需要解析场景、对象、属性、关系以及比较和逻辑等高阶推理。GenAI-Bench 还为稳定扩散、DALL-E 3 和 Gen2 等领先的图像和视频生成模型提供了 15,000 多项人类评分。

14.Getting it Right: Improving Spatial Consistency in Text-to-Image Models

标题:正确处理:提高文本到图像模型的空间一致性

author:Agneet Chatterjee, Gabriela Ben Melech Stan, Estelle Aflalo, Sayak Paul, Dhruba Ghosh, Tejas Gokhale, Ludwig Schmidt, Hannaneh Hajishirzi, Vasudev Lal, Chitta Baral, Yezhou Yang

publish:project webpage : https://spright-t2i.github.io/

date Time:2024-04-01

paper pdf:http://arxiv.org/pdf/2404.01197v1

摘要
当前文本到图像(T2I)模型的主要缺陷之一是无法始终如一地生成忠实于文本提示中指定的空间关系的图像。在本文中,我们对这一局限性进行了全面的研究,同时还开发了能达到最先进性能的数据集和方法。首先,我们发现当前的视觉语言数据集不能很好地表现空间关系;为了缓解这一瓶颈,我们从 4 个广泛使用的视觉数据集中抽取了 600 万张图片重新进行标注,从而创建了 SPRIGHT,这是首个以空间为重点的大规模数据集。通过三重评估和分析,我们发现 SPRIGHT 在捕捉空间关系方面比现有数据集有很大改进。为了证明 SPRIGHT 的功效,我们只利用了约 0.25% 的 SPRIGHT,就在生成空间精确图像方面提高了 22%,同时还提高了 FID 和 CMMD 分数。其次,我们发现在包含大量物体的图像上进行训练可大幅提高空间一致性。值得注意的是,通过在小于 500 张图像上进行微调,我们在 T2I-CompBench 上达到了最先进的水平,空间得分达到 0.2133。最后,通过一系列受控实验和消融,我们记录了多项发现,相信这些发现将加深人们对影响文本到图像模型空间一致性的因素的理解。我们公开发布我们的数据集和模型,以促进该领域的进一步研究。

15.Learning by Correction: Efficient Tuning Task for Zero-Shot Generative Vision-Language Reasoning

标题:通过修正学习:零点生成式视觉语言推理的高效调整任务

author:Rongjie Li, Yu Wu, Xuming He

publish:Accepted by CVPR2024

date Time:2024-04-01

paper pdf:http://arxiv.org/pdf/2404.00909v1

摘要
生成式视觉语言模型(VLM)在图像字幕和视觉问题解答等零镜头视觉语言任务中表现出令人印象深刻的性能。然而,要提高这些模型的零镜头推理能力,通常需要进行第二阶段的指令调整,这在很大程度上依赖于人类标注或大型语言模型生成的注释,从而产生高昂的标注成本。为了应对这一挑战,我们引入了图像条件字幕校正(ICCC),这是一种新颖的预训练任务,旨在提高 VLMs 的零镜头性能,而无需标注任务感知数据。ICCC 任务迫使 VLM 纠正视觉概念和语言概念之间的不匹配,从而增强指令跟踪和以视觉输入为条件的文本生成。利用语言结构和轻量级依赖性解析器,我们从图像-文本数据集中构建了 ICCC 任务的数据样本,标签和计算成本都很低。BLIP-2 和 InstructBLIP 的实验结果表明,通过对 ICCC 指令进行调整,基于零镜头图像文本生成的 VL 任务有了显著改善。

16.From Pixels to Graphs: Open-Vocabulary Scene Graph Generation with Vision-Language Models

标题:从像素到图形:利用视觉语言模型生成开放词汇场景图

author:Rongjie Li, Songyang Zhang, Dahua Lin, Kai Chen, Xuming He

publish:Accepted by CVPR 2024

date Time:2024-04-01

paper pdf:http://arxiv.org/pdf/2404.00906v1

摘要
场景图生成(SGG)旨在将视觉场景解析为中间图表示,以用于下游推理任务。尽管最近取得了一些进展,但现有方法仍难以生成具有新颖视觉关系概念的场景图。为了应对这一挑战,我们在序列生成的基础上引入了一个新的开放词汇 SGG 框架。我们的框架利用视觉语言预训练模型(VLM),结合了图像到图生成范式。具体来说,我们通过使用 VLM 生成图像到文本来生成场景图序列,然后根据这些序列构建场景图。通过这种方法,我们利用了 VLM 在开放词汇 SGG 方面的强大功能,并无缝集成了显式关系建模,以增强 VL 任务。实验结果表明,我们的设计不仅在开放词汇方面取得了卓越的性能,而且还通过显式关系建模知识提高了下游视觉语言任务的性能。

17.LLM meets Vision-Language Models for Zero-Shot One-Class Classification

标题:LLM 满足零镜头单类分类的视觉语言模型

author:Yassir Bendou, Giulia Lioi, Bastien Pasdeloup, Lukas Mauch, Ghouthi Boukli Hacene, Fabien Cardinaux, Vincent Gripon

date Time:2024-03-31

paper pdf:http://arxiv.org/pdf/2404.00675v2

摘要
我们考虑的是零镜头单类视觉分类问题。在这种情况下,只有目标类别的标签可用,目标是在不需要目标任务的任何验证示例的情况下,区分正向和负向查询样本。我们提出了一种分两步走的解决方案,首先查询视觉混淆对象的大型语言模型,然后依靠视觉语言预训练模型(如 CLIP)进行分类。通过调整大规模视觉基准,我们证明了所提出的方法在这种情况下优于调整后的现成替代方法的能力。也就是说,我们提出了一个现实的基准,其中负查询样本与正查询样本来自相同的原始数据集,包括一个粒度受控的 iNaturalist 版本,其中负样本与正样本在分类树中的距离是固定的。我们的工作表明,仅使用一个类别的标签,就可以区分该类别和其他语义相关的类别。

18.Do Vision-Language Models Understand Compound Nouns?

标题:视觉语言模型能理解复合名词吗?

author:Sonal Kumar, Sreyan Ghosh, S Sakshi, Utkarsh Tyagi, Dinesh Manocha

publish:Accepted to NAACL 2024 Main Conference

date Time:2024-03-30

paper pdf:http://arxiv.org/pdf/2404.00419v1

摘要
像 CLIP 这样的开放词汇视觉语言模型(VLMs)是利用对比损失法训练出来的,已成为文本到图像检索的一种很有前途的新范例。然而,视觉语言模型是否能像理解名词(如实验室)那样理解复合名词(CN)(如白大褂)?我们策划了一个包含 400 个独特常用 CN 的新基准 Compun,以评估 VLM 在解释 CN 方面的有效性。Compun 基准是对文本到图像检索的 VLM 的挑战,在该基准中,给定一个带有 CN 的文本提示,任务是在显示组成 CN 的组成名词的一对干扰图像中选择显示 CN 的正确图像。接下来,我们将进行深入分析,以突出 CLIPs 对某些类型 CN 的理解有限。最后,我们提出了一个替代框架,它超越了 CLIP 类模型广泛使用的手写文本提示模板。我们采用大型语言模型来生成多种不同的字幕,将 CN 作为字幕所描述场景中的一个对象。在 Compun 上,我们提出的方法将 CLIP 的 CN 理解能力提高了 8.25%。代码和基准可在以下网站获取: https://github.com/sonalkum/Compun

19.TTD: Text-Tag Self-Distillation Enhancing Image-Text Alignment in CLIP to Alleviate Single Tag Bias

标题:TTD:文本标签自扩散增强 CLIP 中的图像-文本对齐,减轻单一标签偏差

author:Sanghyun Jo, Soohyun Ryu, Sungyub Kim, Eunho Yang, Kyungsu Kim

date Time:2024-03-30

paper pdf:http://arxiv.org/pdf/2404.00384v1

摘要
我们发现了当代基于 CLIP 的模型中的一个关键偏差,并将其命名为 \textit{single tag bias}。这种偏差表现为过度关注单一标签(单词),而忽视其他相关标签,这源于 CLIP 的文本嵌入在图像-文本关系中优先考虑一个特定标签。在将文本解构为单个标签时,只有一个标签往往与 CLIP 的图像嵌入具有高度相关性,从而导致标签相关性失衡。这导致文本中存在的多个标签之间的对齐不均衡。为了应对这一挑战,我们引入了一种新颖的两步微调方法。首先,我们的方法利用标签与其最近像素之间的相似性进行评分,从而从文本中提取图像相关标签。其次,我们提出了一种自我修正策略,旨在将提取标签的组合掩码与文本衍生掩码对齐。这种方法减轻了单一标签的偏差,从而在无需额外数据或监督的情况下显著提高了 CLIP 模型的对齐度。我们的技术在多标签分类和分割任务中展示了与模型无关的改进,超越了依赖外部资源的竞争方法。代码见 https://github.com/shjo-april/TTD。

20.CLIP-driven Outliers Synthesis for few-shot OOD detection

标题:CLIP 驱动的离群值合成,用于少量 OOD 检测

author:Hao Sun, Rundong He, Zhongyi Han, Zhicong Lin, Yongshun Gong, Yilong Yin

publish:9 pages,5 figures

date Time:2024-03-30

paper pdf:http://arxiv.org/pdf/2404.00323v1

摘要
少镜头 OOD 检测的重点是仅使用少量标注的分布内(ID)图像,识别属于训练期间未见类别的分布外(OOD)图像。迄今为止,主流策略是基于大规模视觉语言模型,如 CLIP。然而,这些方法忽略了一个关键问题:缺乏可靠的 OOD 监督信息,这会导致分布内(ID)和 OOD 之间的边界出现偏差。为了解决这个问题,我们提出了 CLIP 驱动的离群值合成(CLIP-OS)。首先,CLIP-OS 通过新提出的补丁均匀卷积增强补丁级特征的感知,并利用 CLIP 手术差异自适应地获取 ID 相关信息的比例,从而实现 ID 相关与 ID 不相关的分离。接下来,CLIP-OS 通过混合不同类别的 ID 相关特征来合成可靠的 OOD 数据,从而提供 OOD 监督信息。之后,CLIP-OS 通过未知感知提示学习利用合成的 OOD 样本来增强 ID 和 OOD 的可分离性。在多个基准测试中进行的广泛实验证明,CLIP-OS 实现了卓越的少量 OOD 检测能力。

21.Bayesian Exploration of Pre-trained Models for Low-shot Image Classification

标题:贝叶斯法探索预训练模型用于低照度图像分类

author:Yibo Miao, Yu Lei, Feng Zhou, Zhijie Deng

date Time:2024-03-30

paper pdf:http://arxiv.org/pdf/2404.00312v1

摘要
低镜头图像分类是计算机视觉领域的一项基本任务,而 CLIP 等大规模视觉语言模型的出现极大地推动了这一领域的前沿研究。然而,大多数现有的基于 CLIP 的方法缺乏灵活性,无法有效地结合其他预先训练好的模型,这些模型包含的知识与 CLIP 不同。为了弥合这一差距,本研究提出了一种基于高斯过程的简单有效的概率模型集合框架,高斯过程之前在处理小数据方面已显示出显著的功效。我们用 CLIP 指定均值函数,用基于各种预训练模型的深度内核集合指定内核函数,从而实现了先验知识的整合。通过直接回归分类标签,我们的框架实现了分析推理、直接的不确定性量化和有原则的超参数调整。通过在标准基准上进行大量实验,我们证明了我们的方法在预测性能方面始终优于具有竞争力的集合基线。此外,我们还评估了我们方法的鲁棒性以及在分布外数据集上得出的不确定性估计的质量。我们还说明,尽管我们的方法依赖于标签回归,但与大多数确定性基线相比,我们的方法仍然具有卓越的模型校准能力。

22.Design as Desired: Utilizing Visual Question Answering for Multimodal Pre-training

标题:按需设计:利用视觉问题解答进行多模态预培训

author:Tongkun Su, Jun Li, Xi Zhang, Haibo Jin, Hao Chen, Qiong Wang, Faqin Lv, Baoliang Zhao, Yin Hu

date Time:2024-03-30

paper pdf:http://arxiv.org/pdf/2404.00226v1

摘要
多模态预训练展示了其在医疗领域的潜力,它可以从配对的医疗报告中学习医疗视觉表征。然而,许多预训练任务都需要临床医生提供额外的注释,而且大多数预训练任务都不能明确地指导模型学习不同病理的所需特征。据我们所知,我们是第一个利用视觉问题解答(VQA)进行多模态预训练,以引导框架关注目标病理特征的人。在这项工作中,我们利用医疗报告中的描述来设计与不同疾病相关的多粒度问答对,这有助于框架进行预训练,而无需专家的额外注释。我们还提出了一种带有准文本特征转换器的新型预训练框架,该模块旨在通过对比学习策略将视觉特征转换到更接近文本领域的准文本空间。这缩小了视觉与语言之间的差距,促进了模态对齐。我们的框架适用于四个下游任务:报告生成、分类、分割和五个数据集的检测。广泛的实验证明,与其他最先进的方法相比,我们的框架更胜一筹。我们的代码将在通过验收后发布。

这篇关于AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.03.31-2024.04.05的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/885054

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

AI绘图怎么变现?想做点副业的小白必看!

在科技飞速发展的今天,AI绘图作为一种新兴技术,不仅改变了艺术创作的方式,也为创作者提供了多种变现途径。本文将详细探讨几种常见的AI绘图变现方式,帮助创作者更好地利用这一技术实现经济收益。 更多实操教程和AI绘画工具,可以扫描下方,免费获取 定制服务:个性化的创意商机 个性化定制 AI绘图技术能够根据用户需求生成个性化的头像、壁纸、插画等作品。例如,姓氏头像在电商平台上非常受欢迎,

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

从去中心化到智能化:Web3如何与AI共同塑造数字生态

在数字时代的演进中,Web3和人工智能(AI)正成为塑造未来互联网的两大核心力量。Web3的去中心化理念与AI的智能化技术,正相互交织,共同推动数字生态的变革。本文将探讨Web3与AI的融合如何改变数字世界,并展望这一新兴组合如何重塑我们的在线体验。 Web3的去中心化愿景 Web3代表了互联网的第三代发展,它基于去中心化的区块链技术,旨在创建一个开放、透明且用户主导的数字生态。不同于传统

AI一键生成 PPT

AI一键生成 PPT 操作步骤 作为一名打工人,是不是经常需要制作各种PPT来分享我的生活和想法。但是,你们知道,有时候灵感来了,时间却不够用了!😩直到我发现了Kimi AI——一个能够自动生成PPT的神奇助手!🌟 什么是Kimi? 一款月之暗面科技有限公司开发的AI办公工具,帮助用户快速生成高质量的演示文稿。 无论你是职场人士、学生还是教师,Kimi都能够为你的办公文

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}