小白也能看懂的self-attention教程

2024-04-10 23:44

本文主要是介绍小白也能看懂的self-attention教程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 引言

自从2017年论文《Attention Is All You Need》问世以来,基于AttentionTransformer网络在NLP领域和计算视觉CV领域都得到了广泛的应用。

本文旨在用简单易懂的语句来告诉大家self-attention的数学原理,并配以尽可能直观的图片来进行讲解说明,希望大家可以实现自己的自注意力模块!

闲话少说,我们直接开始吧!

2. 定义

在原始Transformer论文中,self-attention主要用于为单词生成新的向量表示,这些向量表示可以帮助机器理解句子中不同单词之间的中重要程度。它的输入为用单词嵌入向量(token embeddings)用来代替文本语句,token embedding实质上就是单词的多维的数字表示。而经过self-attention处理后,将这个输入序列转换成一个新的表示,同时可以保留原始单词输入语序,使其成为Transformer等强大人工智能模型的重要组成部分。

在心理学中,注意力是有选择地专注于一件或几件事情而忽略其他不太重要的事情的认知过程。神经网络被认为是以简化方式来模仿人脑的动作。注意力机制也是类似,通过它可以让神经网络有选择地专注于一些重要的输入,而忽略不太重要的输入。

我们来打个比方,假设我们正在查看一张幼儿园毕业照的合影。通常,会有好几排老师学生组成的队列,而老师一般坐在多个孩子的中间。现在,如果有人问问题,“一共有多少人?”,你会如何回答?

只需数人头,对吧?大家无需考虑照片中的任何其他内容。现在,如果有人问一个不同的问题,“照片中的老师是谁?”,你的大脑确切地知道该怎么做。它只会开始寻找照片中中间位置具有成年人特征的人,其余的孩子将被忽略。这就是我们的大脑非常擅长实现的“注意力”。

3. 准备输入

接着,我们通过一个具体的示例,来对自注意力机制进行讲解。假设我们有三个四维的token embedding作为self-attention的输入,换句话说就是我们有三个words作为输入,我们将每个word用一个四维的向量进行代替,如下所示:

Input 1: [1, 0, 1, 0] 
Input 2: [0, 2, 0, 2]
Input 3: [1, 1, 1, 1]

图示如下:
在这里插入图片描述

4. 初始化权重

接着,我们需要将每个input和三个权重矩阵分别相乘,进而得到我们的key(橙色),query(红色),value(紫色)。如下:
在这里插入图片描述

由于我们的inputshape为1×4,假设keyqueryvalue的shape为1×3,因此可以推出与input相乘的三个权重矩阵的shape均为4×3。观察上图,每个输入(绿色)都乘以一组keys的权重、一组querys的权重和一组values的权重,然后得到对应的key(橙色),query(红色),value(紫色)。

在我们的例子中,我们将三组权重初始化如下:

# init weight for key
w_key=[[0, 0, 1],[1, 1, 0],[0, 1, 0],[1, 1, 0]]# init weight for queryw_query=[[1, 0, 1],[1, 0, 0],[0, 0, 1],[0, 1, 1]]# init weight for valuew_value=[[0, 2, 0],[0, 3, 0],[1, 0, 3],[1, 1, 0]]

在神经网络初始化权重设置中,这些权重通常是很小的浮点数,一般使用随机分布(如Gaussian、Xavier)来随机初始化。权重初始化放在训练之前。

5. 计算key

经过以上准备工作,现在我们有了三组权重,让我们获得每个输入下的keyqueryvalue的向量表示。

首先来针对input1计算key:

               [0, 0, 1]
[1, 0, 1, 0] x [1, 1, 0] = [0, 1, 1][0, 1, 0][1, 1, 0]

接着使用同样的weight来为输入input2计算对应的key:

               [0, 0, 1]
[0, 2, 0, 2] x [1, 1, 0] = [4, 4, 0][0, 1, 0][1, 1, 0] 

接着使用同样的weight来为输入input3计算对应的key:

               [0, 0, 1]
[1, 1, 1, 1] x [1, 1, 0] = [2, 3, 1][0, 1, 0][1, 1, 0]

更快的方法是对合并上述操作进行矩阵运算:

               [0, 0, 1]
[1, 0, 1, 0]   [1, 1, 0]   [0, 1, 1]
[0, 2, 0, 2] x [0, 1, 0] = [4, 4, 0]
[1, 1, 1, 1]   [1, 1, 0]   [2, 3, 1]

图示如下:
在这里插入图片描述

6. 计算value和query

我们使用同样的方法来获取每个输入对应的value,如下:

               [0, 2, 0]
[1, 0, 1, 0]   [0, 3, 0]   [1, 2, 3] 
[0, 2, 0, 2] x [1, 0, 3] = [2, 8, 0]
[1, 1, 1, 1]   [1, 1, 0]   [2, 6, 3]

图示如下:
在这里插入图片描述

对于query,也进行类似操作,如下:

               [1, 0, 1]
[1, 0, 1, 0]   [1, 0, 0]   [1, 0, 2]
[0, 2, 0, 2] x [0, 0, 1] = [2, 2, 2]
[1, 1, 1, 1]   [0, 1, 1]   [2, 1, 3]

图示如下:
在这里插入图片描述

7. 计算attention scores

为了获得注意力得分(attention scores),我们用input1query(红色)和input1,input2,input3key(橙色)的转置分别计算点积。因此针对input1我们获得了3个注意力得分(蓝色),分别表示input1input1,intpu2,intpu3的注意力得分。

            [0, 4, 2]
[1, 0, 2] x [1, 4, 3] = [2, 4, 4][1, 0, 1]

图示如下:
在这里插入图片描述

请注意,我们只使用input1中的query。我们针对其他输入inputquery可以重复同样的步骤,不在累述。

8. 计算softmax

我们在得到了针对input1queryattention scores后,我们可以使用softmax函数来执行归一化操作,使得各项相加后和为1,如下:

softmax([2, 4, 4]) = [0.0, 0.5, 0.5]

图示如下:
在这里插入图片描述

请注意,为了便于阅读,我们针对softmax输出进行四舍五入到小数点后1位。

9. 与values相乘

接着将每个输入的softmax之后的注意力得分(蓝色)乘以其相应的值(紫色)。这将产生3个alignment vectors(黄色)。在本文中,我们将把它们称为weighted values。如下:

1: 0.0 * [1, 2, 3] = [0.0, 0.0, 0.0]
2: 0.5 * [2, 8, 0] = [1.0, 4.0, 0.0]
3: 0.5 * [2, 6, 3] = [1.0, 3.0, 1.5]

图示如下:
在这里插入图片描述

10. 对weighted values求和得到output

在上一步骤中,我们针对input1query(红色)产生了三个weighted values(黄色),我们将这三个weighted values 按元素相加,得到我们的输出output1(深绿色),表示针对input1中的query与所有输入的key(包含input1)之间的atten score作为对value求和时的权重。

  [0.0, 0.0, 0.0]
+ [1.0, 4.0, 0.0]
+ [1.0, 3.0, 1.5]
-----------------
= [2.0, 7.0, 1.5]

图示如下:
在这里插入图片描述

11. 针对其他输入重复即可

现在我们已经完成了针对output1的计算可视化过程,那么对于output2output3我们只需要重复上述步骤4到7即可。我相信大家可以自己动身计算咯!
在这里插入图片描述

注意:由于计算atten score时使用的时点积操作,所以queryvalue的维度必须始终相同。但是,value的维度可能与queryvalue不同。由此产生的输出将和value的维度保持一致。

12. 总结

本文重点介绍了自注意力机制的相关原理,transformer正是利用注意力机制的力量在自然语言处理行业取得前所未有的成果。希望大家可以通过本文,对自注意力机制有直观的理解!

您学废了嘛?

13. 参考

本文参考链接如下:

链接1:戳我
链接2:戳我

这篇关于小白也能看懂的self-attention教程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/892491

相关文章

JavaWeb项目创建、部署、连接数据库保姆级教程(tomcat)

《JavaWeb项目创建、部署、连接数据库保姆级教程(tomcat)》:本文主要介绍如何在IntelliJIDEA2020.1中创建和部署一个JavaWeb项目,包括创建项目、配置Tomcat服务... 目录简介:一、创建项目二、tomcat部署1、将tomcat解压在一个自己找得到路径2、在idea中添加

Python + Streamlit项目部署方案超详细教程(非Docker版)

《Python+Streamlit项目部署方案超详细教程(非Docker版)》Streamlit是一款强大的Python框架,专为机器学习及数据可视化打造,:本文主要介绍Python+St... 目录一、针对 Alibaba Cloud linux/Centos 系统的完整部署方案1. 服务器基础配置(阿里

Spring IOC核心原理详解与运用实战教程

《SpringIOC核心原理详解与运用实战教程》本文详细解析了SpringIOC容器的核心原理,包括BeanFactory体系、依赖注入机制、循环依赖解决和三级缓存机制,同时,介绍了SpringBo... 目录1. Spring IOC核心原理深度解析1.1 BeanFactory体系与内部结构1.1.1

SpringBoot集成iText快速生成PDF教程

《SpringBoot集成iText快速生成PDF教程》本文介绍了如何在SpringBoot项目中集成iText9.4.0生成PDF文档,包括新特性的介绍、环境准备、Service层实现、Contro... 目录SpringBoot集成iText 9.4.0生成PDF一、iText 9新特性与架构变革二、环

2025最新版Android Studio安装及组件配置教程(SDK、JDK、Gradle)

《2025最新版AndroidStudio安装及组件配置教程(SDK、JDK、Gradle)》:本文主要介绍2025最新版AndroidStudio安装及组件配置(SDK、JDK、Gradle... 目录原生 android 简介Android Studio必备组件一、Android Studio安装二、A

前端Visual Studio Code安装配置教程之下载、汉化、常用组件及基本操作

《前端VisualStudioCode安装配置教程之下载、汉化、常用组件及基本操作》VisualStudioCode是微软推出的一个强大的代码编辑器,功能强大,操作简单便捷,还有着良好的用户界面,... 目录一、Visual Studio Code下载二、汉化三、常用组件1、Auto Rename Tag2

JavaScript装饰器从基础到实战教程

《JavaScript装饰器从基础到实战教程》装饰器是js中一种声明式语法特性,用于在不修改原始代码的情况下,动态扩展类、方法、属性或参数的行为,本文将从基础概念入手,逐步讲解装饰器的类型、用法、进阶... 目录一、装饰器基础概念1.1 什么是装饰器?1.2 装饰器的语法1.3 装饰器的执行时机二、装饰器的

MySQL 5.7彻底卸载与重新安装保姆级教程(附常见问题解决)

《MySQL5.7彻底卸载与重新安装保姆级教程(附常见问题解决)》:本文主要介绍MySQL5.7彻底卸载与重新安装保姆级教程的相关资料,步骤包括停止服务、卸载程序、删除文件和注册表项、清理环境... 目录一、彻底卸载旧版本mysql(核心步骤)二、MySQL 5.7重新安装与配置三、常见问题解决总结废话不多

全网最全Tomcat完全卸载重装教程小结

《全网最全Tomcat完全卸载重装教程小结》windows系统卸载Tomcat重新通过ZIP方式安装Tomcat,优点是灵活可控,适合开发者自定义配置,手动配置环境变量后,可通过命令行快速启动和管理... 目录一、完全卸载Tomcat1. 停止Tomcat服务2. 通过控制面板卸载3. 手动删除残留文件4.

Python的pandas库基础知识超详细教程

《Python的pandas库基础知识超详细教程》Pandas是Python数据处理核心库,提供Series和DataFrame结构,支持CSV/Excel/SQL等数据源导入及清洗、合并、统计等功能... 目录一、配置环境二、序列和数据表2.1 初始化2.2  获取数值2.3 获取索引2.4 索引取内容2