Causal Attention论文详解

2023-12-20 01:10
文章标签 详解 论文 attention causal

本文主要是介绍Causal Attention论文详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 背景介绍

Causal Attention论文是一篇因果推断(causal inference)和注意力(attention)结合的一篇文章,主要用在视觉和文本结合的领域,如VQA(Visual Question Answering)视觉问答。

VQA(Visual Question Answering)视觉问答的一个基本流程如下,对输入图进行self-attn编程得到K和V的向量,从文本得到Q的向量进行Attn计算,得到填空的结果(riding)。这个过程可以看成是一个因果推断的过程,对应的示意图如下X->Z->Y,X是输入,Z是模型过程,Y是输出,箭头表示相互依赖的关系。

在这里插入图片描述

实际中由于训练数据中存在bias偏差会导致结果不对,比如下图,看图回答问题(在屏幕上显示的是什么运动),由于预训练数据中Sport+ManSport+Screen出现次数多的话,在回答时self-attn关注点会更注意Sport+Man(即下图红框部分,导致回答错误结果为跳舞)。为此这篇论文中提出了Causal Attention的方法。

2. 详细说明

2.1 因果推断confounder

在因果推断(causal inference)中有一个概念是confounder(也有叫Confounding factor), 中文意思是干扰因子,在因果推断中表示影响推导的不可知因素,举个例子如下,药物Drug会帮助恢复Recovery,但隐藏的因素是一个人的性别Gender可能会同时影响使用什么样的药物恢复效果。这里的性别就是confounder

在这里插入图片描述

这里的推断流程从 X → Y X \rightarrow Y XY 变为了 X ← Z → Y X \leftarrow Z \rightarrow Y XZY,用 P ( y ∣ d o ( x ) ) P(y|do(x)) P(ydo(x)) 表示无偏估计的结果,也就是针对了相关的confounder因素进行了调整后的结果。公式表示如下,当且仅当没有confounder时, P ( y ∣ d o ( x ) ) = P ( y ∣ x ) P(y|do(x)) = P(y|x) P(ydo(x))=P(yx)

P ( y ∣ d o ( x ) ) = ∑ z P ( y ∣ x , z ) P ( z ) \begin{gather*} P(y | do(x)) = \sum_zP(y|x, z) P(z) \end{gather*} P(ydo(x))=zP(yx,z)P(z)

针对上面例子,对应的 P ( Y = r e c o v e r e d ∣ d o ( X = g i v e d r u g ) ) P(Y=recovered | do(X=give\ drug)) P(Y=recovereddo(X=give drug)) 等于如下:

P ( Y = r e c o v e r e d ∣ d o ( X = g i v e d r u g ) ) = P ( Y = r e c o v e r e d ∣ X = g i v e d r u g , Z = m a l e ) P ( Z = m a l e ) + P ( Y = r e c o v e r e d ∣ X = g i v e d r u g , Z = f e m a l e ) P ( Z = f e m a l e ) \begin{gather*} P(Y=recovered | do(X=give\ drug)) = P(Y=recovered | X=give\ drug, Z=male) P(Z=male) + P(Y=recovered | X=give\ drug, Z=female) P(Z=female) \end{gather*} P(Y=recovereddo(X=give drug))=P(Y=recoveredX=give drug,Z=male)P(Z=male)+P(Y=recoveredX=give drug,Z=female)P(Z=female)

在训练过程中数据bias就是由于cofounder(这里也被称为common sense的常识)引起的,如下图,C表示常识,常识存在多种,person can ride horse是常识中的一种, X表示通过person can ride horse产生的一个图片和对应的prompt(person can ride ___),M表示通过Faster-RCNN检测出来的物体object(personhorse), Y表示语言模型产生的推理结果person can ride horse。在训练中一个理想合法的推导是 X → M → Y X \rightarrow M \rightarrow Y XMY,但实际中常识C也会对最终的结果Y有影响,即 X ← C → M → Y X \leftarrow C \rightarrow M \rightarrow Y XCMY。训练中计算的是按 P ( Y ∣ X ) P(Y|X) P(YX),而实际中应该按 P ( Y ∣ d o ( X ) ) P(Y|do(X)) P(Ydo(X)) 来计算。

在这里插入图片描述

2.2 Causal Attention公式表示

之前的attention机制可以看成是一个前向的因果推理图(X->Z->Y)。基于这个图Causal Attention中把attention拆为两部分,一个是选择器(selector),用于从数据X中选择合适的知识Z;另一个是推理器(predictor),通过选择的Z去探索推理结果Y

以VQA为例,训练集是已知的,也就是计算的可观测的P(Y|X), Z表示训练中已有的知识,由于Z可以看成是从X中抽样出来一部分数据,所以计算的部分也叫为IS-Sampling。公式如下:

在这里插入图片描述

在训练过程中抽样的数据集存在潜在的偏差(bias),即Z <- X <-> Y, 需要进行修正,ZY之前的因果影响表示为 P ( Y ∣ d o ( Z ) ) P(Y|do(Z)) P(Ydo(Z)), X -> Z的这部分可以通过对X进行拆解为多个不同的 { x } \{x\} {x} 来表示,公式如下, x表示可能的输入,这里叫做CS-Samping
在这里插入图片描述

最终公式(2)代入公式(1)得到如下结果:
在这里插入图片描述

2.3 Causal Attention网络实现

P ( Y ∣ Z , X ) P(Y|Z,X) P(YZ,X) 使用一个softmax层进行计算;如公式(3)所示,为了计算 P ( Y ∣ d o ( X ) ) P(Y|do(X)) P(Ydo(X)) 要对XZ进行采样,但是前向代价过大,所以采用了Normalized Weighted Geometric Mean (NWGM) 的近似方法,近似后公式如下, f ( ⋅ ) 、 h ( ⋅ ) f(\cdot)、h(\cdot) f()h() 表示把输入X进行embedding后成为两个query set。
在这里插入图片描述

使用attention进行表示上述计算的话,In-Sample attention (IS-ATT)的结果 Z ^ \hat{Z} Z^如下, K I 和 V I K_I 和 V_I KIVI来自当前的输入样本,如RoI的特征; Q I Q_I QI自于 h ( X ) h(X) h(X),在top-down attention中 q I q_I qI为上下文的embedding,在self-attention中 q I q_I qI也是RoI的特征。
在这里插入图片描述

Cross-Sample attention (CS-ATT)的结果 X ^ \hat{X} X^如下, K C 和 V C K_C 和 V_C KCVC来自训练集中的其他样本, Q C Q_C QC自于 f ( X ) f(X) f(X)
在这里插入图片描述

对应的网络图如下:
在这里插入图片描述

2.4 Causal Attention在堆叠attention网络中的应用

2.4.1 Transformer+CATT

在transformer中encoder和decoder实现如下图, [ V I ] E [V_I]_E [VI]E [ V C ] E [V_C]_E [VC]E分别表示为IS-ATTCS-ATT的encoder输出, Z ^ \hat{Z} Z^ X ^ \hat{X} X^表示IS-ATTCS-ATT的decoder输出。
在这里插入图片描述

2.4.2 LXMERT+CATT

在这里插入图片描述

3. 参考

  • Causal Attention for Vision-Language Tasks
  • 论文笔记:Causal Attention for Vision-Language Tasks
  • LXMERT: Learning Cross-Modality Encoder Representations from Transformers
  • LXMERT
  • Confounding
  • Confounders: machine learning’s blindspot

这篇关于Causal Attention论文详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/514350

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

OpenHarmony鸿蒙开发( Beta5.0)无感配网详解

1、简介 无感配网是指在设备联网过程中无需输入热点相关账号信息,即可快速实现设备配网,是一种兼顾高效性、可靠性和安全性的配网方式。 2、配网原理 2.1 通信原理 手机和智能设备之间的信息传递,利用特有的NAN协议实现。利用手机和智能设备之间的WiFi 感知订阅、发布能力,实现了数字管家应用和设备之间的发现。在完成设备间的认证和响应后,即可发送相关配网数据。同时还支持与常规Sof

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

6.1.数据结构-c/c++堆详解下篇(堆排序,TopK问题)

上篇:6.1.数据结构-c/c++模拟实现堆上篇(向下,上调整算法,建堆,增删数据)-CSDN博客 本章重点 1.使用堆来完成堆排序 2.使用堆解决TopK问题 目录 一.堆排序 1.1 思路 1.2 代码 1.3 简单测试 二.TopK问题 2.1 思路(求最小): 2.2 C语言代码(手写堆) 2.3 C++代码(使用优先级队列 priority_queue)

K8S(Kubernetes)开源的容器编排平台安装步骤详解

K8S(Kubernetes)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化应用程序。以下是K8S容器编排平台的安装步骤、使用方式及特点的概述: 安装步骤: 安装Docker:K8S需要基于Docker来运行容器化应用程序。首先要在所有节点上安装Docker引擎。 安装Kubernetes Master:在集群中选择一台主机作为Master节点,安装K8S的控制平面组件,如AP

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

嵌入式Openharmony系统构建与启动详解

大家好,今天主要给大家分享一下,如何构建Openharmony子系统以及系统的启动过程分解。 第一:OpenHarmony系统构建      首先熟悉一下,构建系统是一种自动化处理工具的集合,通过将源代码文件进行一系列处理,最终生成和用户可以使用的目标文件。这里的目标文件包括静态链接库文件、动态链接库文件、可执行文件、脚本文件、配置文件等。      我们在编写hellowor

LabVIEW FIFO详解

在LabVIEW的FPGA开发中,FIFO(先入先出队列)是常用的数据传输机制。通过配置FIFO的属性,工程师可以在FPGA和主机之间,或不同FPGA VIs之间进行高效的数据传输。根据具体需求,FIFO有多种类型与实现方式,包括目标范围内FIFO(Target-Scoped)、DMA FIFO以及点对点流(Peer-to-Peer)。 FIFO类型 **目标范围FIFO(Target-Sc

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear