Co Attention注意力机制实现

2024-04-24 20:32

本文主要是介绍Co Attention注意力机制实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

“Hierarchical Question-Image Co-Attention for Visual Question Answering”中的图像和文本间的Co Attention协同注意力实现

参考:

https://github.com/SkyOL5/VQA-CoAttention/blob/master/coatt/coattention_net.py

https://github.com/Zhangtd/Models-reproducing/blob/master/NIPS2016/selfDef.py

Co Attention示意图如下:

有两种实现方式,分别为Parallel co-attention mechanism和Alternating co-attention mechanism

基于PyTorch实现Parallel co-attention mechanism,代码如下:

from typing import Dict, Optionalimport numpy as np
import torch.nn as nn
import torch
import torch.nn.functional as F
from torch import Tensordef create_src_lengths_mask(batch_size: int, src_lengths: Tensor, max_src_len: Optional[int] = None
):"""Generate boolean mask to prevent attention beyond the end of sourceInputs:batch_size : intsrc_lengths : [batch_size] of sentence lengthsmax_src_len: Optionally override max_src_len for the maskOutputs:[batch_size, max_src_len]"""if max_src_len is None:max_src_len = int(src_lengths.max())src_indices = torch.arange(0, max_src_len).unsqueeze(0).type_as(src_lengths)src_indices = src_indices.expand(batch_size, max_src_len)src_lengths = src_lengths.unsqueeze(dim=1).expand(batch_size, max_src_len)# returns [batch_size, max_seq_len]return (src_indices < src_lengths).int().detach()def masked_softmax(scores, src_lengths, src_length_masking=True):"""Apply source length masking then softmax.Input and output have shape bsz x src_len"""if src_length_masking:bsz, max_src_len = scores.size()# print('bsz:', bsz)# compute maskssrc_mask = create_src_lengths_mask(bsz, src_lengths)# Fill pad positions with -infscores = scores.masked_fill(src_mask == 0, -np.inf)# Cast to float and then back again to prevent loss explosion under fp16.return F.softmax(scores.float(), dim=-1).type_as(scores)class ParallelCoAttentionNetwork(nn.Module):def __init__(self, hidden_dim, co_attention_dim, src_length_masking=True):super(ParallelCoAttentionNetwork, self).__init__()self.hidden_dim = hidden_dimself.co_attention_dim = co_attention_dimself.src_length_masking = src_length_maskingself.W_b = nn.Parameter(torch.randn(self.hidden_dim, self.hidden_dim))self.W_v = nn.Parameter(torch.randn(self.co_attention_dim, self.hidden_dim))self.W_q = nn.Parameter(torch.randn(self.co_attention_dim, self.hidden_dim))self.w_hv = nn.Parameter(torch.randn(self.co_attention_dim, 1))self.w_hq = nn.Parameter(torch.randn(self.co_attention_dim, 1))def forward(self, V, Q, Q_lengths):""":param V: batch_size * hidden_dim * region_num, eg B x 512 x 196:param Q: batch_size * seq_len * hidden_dim, eg B x L x 512:param Q_lengths: batch_size:return:batch_size * 1 * region_num, batch_size * 1 * seq_len,batch_size * hidden_dim, batch_size * hidden_dim"""# (batch_size, seq_len, region_num)C = torch.matmul(Q, torch.matmul(self.W_b, V))# (batch_size, co_attention_dim, region_num)H_v = nn.Tanh()(torch.matmul(self.W_v, V) + torch.matmul(torch.matmul(self.W_q, Q.permute(0, 2, 1)), C))# (batch_size, co_attention_dim, seq_len)H_q = nn.Tanh()(torch.matmul(self.W_q, Q.permute(0, 2, 1)) + torch.matmul(torch.matmul(self.W_v, V), C.permute(0, 2, 1)))# (batch_size, 1, region_num)a_v = F.softmax(torch.matmul(torch.t(self.w_hv), H_v), dim=2)# (batch_size, 1, seq_len)a_q = F.softmax(torch.matmul(torch.t(self.w_hq), H_q), dim=2)# # (batch_size, 1, seq_len)masked_a_q = masked_softmax(a_q.squeeze(1), Q_lengths, self.src_length_masking).unsqueeze(1)# (batch_size, hidden_dim)v = torch.squeeze(torch.matmul(a_v, V.permute(0, 2, 1)))# (batch_size, hidden_dim)q = torch.squeeze(torch.matmul(masked_a_q, Q))return a_v, masked_a_q, v, q

测试代码如下:

pcan = ParallelCoAttentionNetwork(6, 5)
v = torch.randn((5, 6, 10))
q = torch.randn(5, 8, 6)
q_lens = torch.LongTensor([3, 4, 5, 8, 2])
a_v, a_q, v, q = pcan(v, q, q_lens)
print(a_v)
print(a_v.shape)
print(a_q)
print(a_q.shape)
print(v)
print(v.shape)
print(q)
print(q.shape)

效果如下:

tensor([[[9.2527e-04, 1.1542e-03, 1.1542e-03, 1.1542e-03, 2.0009e-02,9.2527e-04, 4.0845e-02, 8.8328e-01, 1.1958e-03, 4.9358e-02]],[[4.5501e-01, 8.6522e-02, 8.6522e-02, 1.7235e-05, 3.8831e-03,2.5070e-04, 9.0637e-05, 4.0010e-03, 2.0196e-03, 3.6169e-01]],[[8.8455e-03, 7.2149e-04, 1.7595e-04, 2.1307e-04, 7.0610e-01,1.3427e-01, 4.3360e-04, 4.0731e-02, 4.0731e-02, 6.7774e-02]],[[4.0013e-01, 2.3081e-02, 3.8406e-02, 4.3583e-03, 9.9425e-05,3.8398e-02, 9.9425e-05, 9.4912e-02, 4.0013e-01, 3.9162e-04]],[[3.1121e-02, 8.0567e-05, 4.0445e-01, 1.4391e-03, 8.0567e-05,4.0445e-01, 7.6909e-02, 2.4837e-04, 4.3044e-03, 7.6909e-02]]],grad_fn=<SoftmaxBackward>)
torch.Size([5, 1, 10])
tensor([[[0.3466, 0.3267, 0.3267, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000]],[[0.2256, 0.3276, 0.2237, 0.2232, 0.0000, 0.0000, 0.0000, 0.0000]],[[0.1761, 0.2254, 0.2254, 0.1823, 0.1908, 0.0000, 0.0000, 0.0000]],[[0.1292, 0.1411, 0.1411, 0.1100, 0.1292, 0.1100, 0.1101, 0.1292]],[[0.5284, 0.4716, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000]]],grad_fn=<UnsqueezeBackward0>)
torch.Size([5, 1, 8])
tensor([[-0.7862,  1.0180,  0.1585,  0.4961, -1.5916, -0.3553],[ 0.3624, -0.2036,  0.2993, -0.4440,  0.2494,  1.4896],[ 0.1695, -0.2286,  0.4431,  0.6027, -1.6116,  0.0566],[ 0.2004,  0.8219, -0.2115, -0.6428,  0.3486,  1.3802],[ 1.4024, -0.1860,  0.1685,  0.2352, -0.4956,  1.0010]],grad_fn=<SqueezeBackward0>)
torch.Size([5, 6])
tensor([[ 0.3757,  0.1662,  0.2181,  0.0787,  0.0110, -0.5938],[-0.6106,  0.4000,  0.6068, -0.4054,  0.0193, -0.1147],[ 0.3877, -0.1800,  1.2430, -0.4881, -0.3598, -0.3592],[-0.3799, -0.3262,  0.0745, -0.2856,  0.0221, -0.1749],[ 0.1159, -0.4949, -0.5576, -0.6870, -1.2895,  0.0421]],grad_fn=<SqueezeBackward0>)
torch.Size([5, 6])

这篇关于Co Attention注意力机制实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/932765

相关文章

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Spring Boot 3.4.3 基于 Spring WebFlux 实现 SSE 功能(代码示例)

《SpringBoot3.4.3基于SpringWebFlux实现SSE功能(代码示例)》SpringBoot3.4.3结合SpringWebFlux实现SSE功能,为实时数据推送提供... 目录1. SSE 简介1.1 什么是 SSE?1.2 SSE 的优点1.3 适用场景2. Spring WebFlu

基于SpringBoot实现文件秒传功能

《基于SpringBoot实现文件秒传功能》在开发Web应用时,文件上传是一个常见需求,然而,当用户需要上传大文件或相同文件多次时,会造成带宽浪费和服务器存储冗余,此时可以使用文件秒传技术通过识别重复... 目录前言文件秒传原理代码实现1. 创建项目基础结构2. 创建上传存储代码3. 创建Result类4.

SpringBoot日志配置SLF4J和Logback的方法实现

《SpringBoot日志配置SLF4J和Logback的方法实现》日志记录是不可或缺的一部分,本文主要介绍了SpringBoot日志配置SLF4J和Logback的方法实现,文中通过示例代码介绍的非... 目录一、前言二、案例一:初识日志三、案例二:使用Lombok输出日志四、案例三:配置Logback一

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

Python实现无痛修改第三方库源码的方法详解

《Python实现无痛修改第三方库源码的方法详解》很多时候,我们下载的第三方库是不会有需求不满足的情况,但也有极少的情况,第三方库没有兼顾到需求,本文将介绍几个修改源码的操作,大家可以根据需求进行选择... 目录需求不符合模拟示例 1. 修改源文件2. 继承修改3. 猴子补丁4. 追踪局部变量需求不符合很

java中反射(Reflection)机制举例详解

《java中反射(Reflection)机制举例详解》Java中的反射机制是指Java程序在运行期间可以获取到一个对象的全部信息,:本文主要介绍java中反射(Reflection)机制的相关资料... 目录一、什么是反射?二、反射的用途三、获取Class对象四、Class类型的对象使用场景1五、Class

idea中创建新类时自动添加注释的实现

《idea中创建新类时自动添加注释的实现》在每次使用idea创建一个新类时,过了一段时间发现看不懂这个类是用来干嘛的,为了解决这个问题,我们可以设置在创建一个新类时自动添加注释,帮助我们理解这个类的用... 目录前言:详细操作:步骤一:点击上方的 文件(File),点击&nbmyHIgsp;设置(Setti

SpringBoot实现MD5加盐算法的示例代码

《SpringBoot实现MD5加盐算法的示例代码》加盐算法是一种用于增强密码安全性的技术,本文主要介绍了SpringBoot实现MD5加盐算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习... 目录一、什么是加盐算法二、如何实现加盐算法2.1 加盐算法代码实现2.2 注册页面中进行密码加盐2.