深度学习代码|Multi-Headed Attention (MHA)多头注意力机制的代码实现

本文主要是介绍深度学习代码|Multi-Headed Attention (MHA)多头注意力机制的代码实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

相关文章

李沐《动手学深度学习》注意力机制

文章目录

  • 相关文章
  • 一、导入相关库
  • 二、准备工作
    • (一)理论基础
    • (二)定义PrepareForMultiHeadAttention模块
  • 三、多头注意模块
    • (一)理论基础
    • (二)创建MultiHeadAttention模块


一、导入相关库

import math
from typing import Optional, List# 从 typing 模块中导入 Optional 和 List 类型,用于类型提示import torch
from torch import nnfrom labml import tracker #跟踪实验中的指标和损失值等信息

二、准备工作

(一)理论基础

在多头自注意力机制中,每个注意力头都需要一个查询(Query)、一个键(Key)和一个值(Value)向量。这些向量通过线性变换从输入特征中提取而来,然后用于计算注意力权重和加权求和。具体来说,给定输入特征张量 X X X,我们首先通过三个线性变换来计算查询 Q Q Q、键 K K K和值向量 V V V
Q = X ⋅ W Q K = X ⋅ W K V = X ⋅ W V Q = X \cdot W_Q\\ K = X \cdot W_K\\ V = X \cdot W_V Q=XWQK=XWKV=XWV

其中, W Q W_Q WQ W K W_K WK W V W_V WV 是学习到的权重矩阵,用于将输入特征 X X X 映射到查询、键和值向量的空间中。这些线性变换可以通过 PyTorch 中的 nn.Linear 层来实现。

(二)定义PrepareForMultiHeadAttention模块

该模块用于准备多头自注意力机制中的查询、键和值向量:

  • 定义多头自注意力机制中的线性变换操作(在自注意力机制中,需要将输入的特征向量通过线性变换映射到不同的空间中,以便进行多头注意力的计算。)
  • 将向量拆分为给定数量的头部,以获得多头注意。
class PrepareForMultiHeadAttention(nn.module):'''d_model:模型输入的特征维度;heads:注意力机制中的头数;d_k:每个头部中以向量表示的维度数;bias:是否使用偏置项'''def __init__(self,d_model:int,heads:int,d_k:int,bias:bool):super().__init__()#线性变换的线性层,输入为d_model,输出为heads*d_kself.linear=nn.Linear(d_model,heads*d_k,bias=bias) self.heads=heads self.d_k=d_k '''x的形状为:seq_len,batch_size,d_model或batch_size,d_model输出形状:seq_len,batch_size,heads,d_k或batch_size,heads,d_k'''def forward(self,x:torch.Tensor):#获取输入张量 x 的形状,去掉最后一个维度,得到一个形状为 (seq_len, batch_size) 或 (batch_size,) 的元组head_shape=x.shape[:-1]x=self.linear(x)#将线性变换后的张量进行重塑操作,将最后一个维度拆分为heads个头部,每个头部的维度为d_kx=x.view(*head_shape,self.heads,self.d_k)return x

pytorch中的view方法:用于对张量进行重塑(reshape)。其作用是将张量的形状变换为指定的形状,但是要求变换后的形状与原始形状的元素数量保持一致。

* 表示解包(unpacking)操作符。在函数调用或函数定义中,*args 表示将传入的参数打包成一个元组,而在函数调用时,*args 则表示将元组解包为独立的参数。

三、多头注意模块

(一)理论基础

通过计算查询 Q Q Q和键 K K K之间的点积,并应用缩放因子 1 d k \frac{1}{\sqrt{d_k}} dk 1,得到注意力权重:
α = s o f t m a x ( Q K T d k ) \alpha=softmax(\frac{QK^T}{\sqrt{d_k}}) α=softmax(dk QKT)

利用注意力权重对值向量 V V V进行加权求和,得到最终的输出向量
A t t e n t i o n ( Q , K , V ) = α V = s o f t m a x ( Q K T d k ) V Attention(Q,K,V)=\alpha V=softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=αV=softmax(dk QKT)V
这样,对于每个注意力头,都可以得到一个输出向量,在多头自注意力机制中,会并行地进行多个这样的注意力头的计算,最后将他们的输出向量连接起来,形成最终的输出。

(二)创建MultiHeadAttention模块

  • __init__:初始化对象的属性
  • get_score:计算查询和键之间的分数 S i j b h = ∑ d Q i b h d K j b h d S_{ijbh}=\sum_dQ_{ibhd}K_{jbhd} Sijbh=dQibhdKjbhd
  • prepare_mask:对注意力遮罩进行处理,使其与后续计算注意力权重的张量形状相匹配
  • forward:前向计算过程

注意力遮罩(Attention Mask)用于指示哪些位置的信息是有效的,哪些位置是无效的。在自注意力机制中,有时需要对注意力权重进行调整,以便在计算注意力时忽略某些位置的信息,或者对某些位置的信息赋予特定的权重。
注意力遮罩主要应用在查询和键之间的相似度计算过程中,用于调整或者限制查询和键之间的关系。

class MultiHeadAttention(nn.Module):'''heads:头的数量。d_model:query 、key 和value 向量中的要素数d_k:每头特征数'''def __init__(self,heads:int,d_model:int,dropout_prob:float=0.1,bias=True):super().__init__()self.d_k=d_model // heads #计算每个头部的查询、键和值的维度self.heads=headsself.query=PrepareForMultiHeadAttention(d_model,heads,self.d_k,bias=bias)self.key=PrepareForeMultiHeadAttention(d_model,heads,self.d_k,bias=bias)self.value=PrepareForMultiHeadAttention(d_model,heads,self.d_k,bias=True)#创建一个 Softmax 层,用于计算注意力权重,dim=1 表示在时间维度上进行 Softmax 计算。self.softmax=nn.Softmax(dim=1)#创建一个 Dropout 层,用于在训练过程中进行随机失活self.dropout=nn.Dropout(dropout_prob)#计算缩放因子,这里使用了倒数的平方根进行缩放self.scale=1/math.sqrt(self.d_k)#初始化一个属性 attn,用于存储注意力权重self.attn=Nonedef get_scores(self,query:torch.Tensor,key:torch.Tensor):return torch.einsum('ibhd,jbhd -> ijbh',query,key)'''mask: 输入的注意力遮罩,形状为(seq_len_q, seq_len_k, batch_size)。query_shape: 查询张量的形状,其中包含序列长度和批次大小。key_shape: 键张量的形状,其中包含序列长度和批次大小。'''def prepare_mask(self,mask:torch.Tensor,query_shape:List[int],key_shape:List[int]):#确保输入的注意力遮罩的第一个维度的大小与查询张量的序列长度维度大小匹配或者为1assert mask.shape[0] == 1 or mask.shape[0] == query_shape[0]#确保输入的注意力遮罩的第二个维度大小与键张量的序列长度维度大小匹配assert mask.shape[1] == key_shape[0]#确保输入的注意力遮罩的第三个维度的大小与查询张量的批次大小维度大小匹配或者为1assert mask.shape[2] == 1 or mask.shape[2] == query_shape[1]#将注意力遮罩的最后一个维度扩展一个维度#形状从(seq_len_q, seq_len_k, batch_size)扩展为(seq_len_q, seq_len_k, batch_size, heads)mask = mask.unsqueeze(-1)return mask'''query、key、value的形状:[seq_len, batch_size, d_model]mask的形状:[seq_len, seq_len, batch_size] '''def forward(self,*,query:torch.Tensor,key:torch.Tensor,value:torch.Tensor,mask:Optional[torch.Tensor] = None):seq_len,batch_size,_ = query.shapeif mask is not None:mask=self.prepare_mask(mask,query.shape,key.shape)#query、key、value的形状经过处理后变为:[seq_len,batch_size,heads,d_k]query=self.query(query)key=self.key(key)value=self.value(value)#计算注意力分数scores=self.get_scores(query,key)#应用缩放因子scores *= self.scale#应用maskif mask is not None:#将遮罩中值为 0 的位置替换为负无穷,这样在计算 Softmax 时对应位置的注意力权重将为 0scores=scores.masked_fill(mask==0,float('-inf'))#计算注意力权重attn=self.softmax(scores)#在调试过程中输出注意力权重 attn 的信息tracker.debug('attn',attn)#应用dropoutattn=self.dropout(attn)#加权求和x=torch.einsum("ijbh,jbhd->ibhd",attn,value)#将注意力权重从计算图中分离出来,以避免在反向传播过程中对注意力权重的梯度进行更新self.attn=attn.detach()#连接多个头:将经过加权求和得到的向量按照特定形状重新排列x=x.reshape(seq_len,batch_size,-1)return self.output(x)

参考:https://github.com/labmlai/annotated_deep_learning_paper_implementations?tab=readme-ov-file

这篇关于深度学习代码|Multi-Headed Attention (MHA)多头注意力机制的代码实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/693316

相关文章

SpringBoot3实现Gzip压缩优化的技术指南

《SpringBoot3实现Gzip压缩优化的技术指南》随着Web应用的用户量和数据量增加,网络带宽和页面加载速度逐渐成为瓶颈,为了减少数据传输量,提高用户体验,我们可以使用Gzip压缩HTTP响应,... 目录1、简述2、配置2.1 添加依赖2.2 配置 Gzip 压缩3、服务端应用4、前端应用4.1 N

SpringBoot实现数据库读写分离的3种方法小结

《SpringBoot实现数据库读写分离的3种方法小结》为了提高系统的读写性能和可用性,读写分离是一种经典的数据库架构模式,在SpringBoot应用中,有多种方式可以实现数据库读写分离,本文将介绍三... 目录一、数据库读写分离概述二、方案一:基于AbstractRoutingDataSource实现动态

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

springboot循环依赖问题案例代码及解决办法

《springboot循环依赖问题案例代码及解决办法》在SpringBoot中,如果两个或多个Bean之间存在循环依赖(即BeanA依赖BeanB,而BeanB又依赖BeanA),会导致Spring的... 目录1. 什么是循环依赖?2. 循环依赖的场景案例3. 解决循环依赖的常见方法方法 1:使用 @La

Java枚举类实现Key-Value映射的多种实现方式

《Java枚举类实现Key-Value映射的多种实现方式》在Java开发中,枚举(Enum)是一种特殊的类,本文将详细介绍Java枚举类实现key-value映射的多种方式,有需要的小伙伴可以根据需要... 目录前言一、基础实现方式1.1 为枚举添加属性和构造方法二、http://www.cppcns.co

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

使用C#代码在PDF文档中添加、删除和替换图片

《使用C#代码在PDF文档中添加、删除和替换图片》在当今数字化文档处理场景中,动态操作PDF文档中的图像已成为企业级应用开发的核心需求之一,本文将介绍如何在.NET平台使用C#代码在PDF文档中添加、... 目录引言用C#添加图片到PDF文档用C#删除PDF文档中的图片用C#替换PDF文档中的图片引言在当

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

MySQL双主搭建+keepalived高可用的实现

《MySQL双主搭建+keepalived高可用的实现》本文主要介绍了MySQL双主搭建+keepalived高可用的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,... 目录一、测试环境准备二、主从搭建1.创建复制用户2.创建复制关系3.开启复制,确认复制是否成功4.同

Java实现文件图片的预览和下载功能

《Java实现文件图片的预览和下载功能》这篇文章主要为大家详细介绍了如何使用Java实现文件图片的预览和下载功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... Java实现文件(图片)的预览和下载 @ApiOperation("访问文件") @GetMapping("