【通俗理解】深度学习特征提取——Attention机制的数学原理与应用

本文主要是介绍【通俗理解】深度学习特征提取——Attention机制的数学原理与应用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【通俗理解】深度学习特征提取——Attention机制的数学原理与应用

关键词提炼

#深度学习 #特征提取 #Attention机制 #CNN #Transformer #关联特征 #MLP #拟合处理

在这里插入图片描述

第一节:Attention机制的类比与核心概念

1.1 Attention机制的类比

Attention机制可以被视为一个“特征筛选器”,它像是一个精细的筛子,在众多的特征中筛选出那些具有关联性的重要特征,然后再利用MLP(多层感知机)对这些特征进行进一步的处理和拟合,最终得到特征与标签之间的关系。

1.2 相似公式比对

  • 线性加权 y = ∑ i = 1 n w i x i y = \sum_{i=1}^{n} w_i x_i y=i=1nwixi,描述了一种简单的线性加权过程,适用于直接且不变的情况。
  • Attention机制 Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V,则是一个更为复杂的机制,它通过对查询(Q)、键(K)和值(V)的操作,实现了对特征的关联筛选和加权

第二节:Attention机制的核心概念与应用

2.1 核心概念

核心概念定义比喻或解释
查询(Q)代表当前需要处理的特征或信息的查询向量。像是你在图书馆中查找资料时,你手中的查询单。
键(K)代表所有可能的特征或信息的键向量,与查询向量进行匹配。像是图书馆中所有书籍的标题和索引,等待你的查询。
值(V)代表所有可能的特征或信息的值向量,根据与查询向量的匹配程度进行加权。像是图书馆中所有书籍的内容,等待你根据标题和索引去获取。
softmax函数用于将匹配程度转化为概率分布,确保加权和的稳定性。像是将你的查询结果按照相关性进行排序,最相关的排在最前面。

2.2 优势与劣势

  • 优势

    • 动态加权:能够根据查询和键的匹配程度动态地调整特征的权重。
    • 关联筛选:能够筛选出与查询最相关的特征,提高特征的有效性和准确性。
  • 劣势

    • 计算复杂度:对于大量的特征和复杂的模型,Attention机制的计算复杂度可能较高。
    • 可解释性:相比于简单的线性加权,Attention机制的可解释性可能较差。

2.3 与特征提取的类比

Attention机制在特征提取中扮演着“放大镜”的角色,它能够放大那些与任务最相关的特征,就像放大镜能够放大物体上的细节一样,为深度学习模型提供了更加精细和有效的特征表示。
在这里插入图片描述

第三节:公式探索与推演运算

3.1 Attention机制的基本形式

Attention机制的基本形式为:

Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(Q, K, V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V

其中, Q Q Q K K K V V V分别代表查询、键和值向量, d k d_k dk是键向量的维度,用于缩放点积的结果,保持数值的稳定性。

3.2 具体实例与推演

假设我们有以下查询、键和值向量:

Q = [ 1 0 ] , K = [ 1 2 0 1 ] , V = [ 2 3 ] Q = \begin{bmatrix} 1 \\ 0 \end{bmatrix}, K = \begin{bmatrix} 1 & 2 \\ 0 & 1 \end{bmatrix}, V = \begin{bmatrix} 2 \\ 3 \end{bmatrix} Q=[10],K=[1021],V=[23]

我们可以计算Attention机制的输出:

Q K T = [ 1 0 ] [ 1 0 2 1 ] = [ 1 0 0 0 ] QK^T = \begin{bmatrix} 1 & 0 \end{bmatrix} \begin{bmatrix} 1 & 0 \\ 2 & 1 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix} QKT=[10][1201]=[1000]

softmax ( Q K T d k ) = softmax ( [ 1 0 0 0 ] ) = [ 1 0 0 0 ] \text{softmax}(\frac{QK^T}{\sqrt{d_k}}) = \text{softmax}(\begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix}) = \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix} softmax(dk QKT)=softmax([1000])=[1000]

Attention ( Q , K , V ) = [ 1 0 0 0 ] [ 2 3 ] = [ 2 0 ] \text{Attention}(Q, K, V) = \begin{bmatrix} 1 & 0 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} 2 \\ 3 \end{bmatrix} = \begin{bmatrix} 2 \\ 0 \end{bmatrix} Attention(Q,K,V)=[1000][23]=[20]

通过这个例子,我们可以看到Attention机制如何根据查询和键的匹配程度对值向量进行加权。

第四节:相似公式比对

  • 点积Attention加性Attention

    • 共同点:都用于计算查询和键之间的匹配程度。
    • 不同点:点积Attention使用点积操作来计算匹配程度,而加性Attention则使用一个前馈神经网络来计算匹配程度。
  • 自注意力(Self-Attention)交叉注意力(Cross-Attention)

    • 相似点:都使用Attention机制来计算特征之间的关联。
    • 差异:自注意力是在同一组特征内部计算关联,而交叉注意力则是在两组不同的特征之间计算关联。

第五节:核心代码与可视化

这段代码使用PyTorch框架实现了简单的Attention机制,并生成了Attention权重的可视化图像。

import torch
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns# Define simple Attention mechanism
def attention(Q, K, V):d_k = K.size()[-1]scores = torch.matmul(Q, K.transpose(-2, -1)) / torch.sqrt(torch.tensor(d_k, dtype=torch.float32))attention_weights = torch.softmax(scores, dim=-1)output = torch.matmul(attention_weights, V)return output, attention_weights# Example data
Q = torch.tensor([[1.0, 0.0]], dtype=torch.float32)
K = torch.tensor([[1.0, 2.0], [0.0, 1.0]], dtype=torch.float32)
V = torch.tensor([[2.0], [3.0]], dtype=torch.float32)# Compute Attention
output, attention_weights = attention(Q, K, V)# Visualize Attention weights
sns.set_theme(style="whitegrid")
plt.bar(['Feature 1', 'Feature 2'], attention_weights.numpy()[0])
plt.xlabel('Features')
plt.ylabel('Attention Weights')
plt.title('Attention Weight Visualization')
plt.show()# Print output and attention weights
print("Output of Attention mechanism:", output.numpy())
print("Attention weights:", attention_weights.numpy())

这段代码首先定义了一个简单的Attention函数,然后使用示例数据计算了Attention的输出和权重,并将权重进行了可视化。通过可视化,我们可以直观地看到不同特征之间的Attention权重分配。

引用:通俗理解的核心

Attention机制就像是一个精细的筛子,在深度学习模型中筛选出那些最具有关联性的特征,然后再利用MLP对这些特征进行进一步的处理和拟合,从而得到特征与标签之间的关系。

参考文献

  • “Attention Is All You Need” by Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin (2017).
  • “Neural Machine Translation by Jointly Learning to Align and Translate” by Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio (2014).

这篇关于【通俗理解】深度学习特征提取——Attention机制的数学原理与应用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1118538

相关文章

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

Spring排序机制之接口与注解的使用方法

《Spring排序机制之接口与注解的使用方法》本文介绍了Spring中多种排序机制,包括Ordered接口、PriorityOrdered接口、@Order注解和@Priority注解,提供了详细示例... 目录一、Spring 排序的需求场景二、Spring 中的排序机制1、Ordered 接口2、Pri

MySQL 缓存机制与架构解析(最新推荐)

《MySQL缓存机制与架构解析(最新推荐)》本文详细介绍了MySQL的缓存机制和整体架构,包括一级缓存(InnoDBBufferPool)和二级缓存(QueryCache),文章还探讨了SQL... 目录一、mysql缓存机制概述二、MySQL整体架构三、SQL查询执行全流程四、MySQL 8.0为何移除查

一文详解Java Condition的await和signal等待通知机制

《一文详解JavaCondition的await和signal等待通知机制》这篇文章主要为大家详细介绍了JavaCondition的await和signal等待通知机制的相关知识,文中的示例代码讲... 目录1. Condition的核心方法2. 使用场景与优势3. 使用流程与规范基本模板生产者-消费者示例

深入理解Apache Airflow 调度器(最新推荐)

《深入理解ApacheAirflow调度器(最新推荐)》ApacheAirflow调度器是数据管道管理系统的关键组件,负责编排dag中任务的执行,通过理解调度器的角色和工作方式,正确配置调度器,并... 目录什么是Airflow 调度器?Airflow 调度器工作机制配置Airflow调度器调优及优化建议最

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加

JavaScript中的isTrusted属性及其应用场景详解

《JavaScript中的isTrusted属性及其应用场景详解》在现代Web开发中,JavaScript是构建交互式应用的核心语言,随着前端技术的不断发展,开发者需要处理越来越多的复杂场景,例如事件... 目录引言一、问题背景二、isTrusted 属性的来源与作用1. isTrusted 的定义2. 为

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操

Python调用另一个py文件并传递参数常见的方法及其应用场景

《Python调用另一个py文件并传递参数常见的方法及其应用场景》:本文主要介绍在Python中调用另一个py文件并传递参数的几种常见方法,包括使用import语句、exec函数、subproce... 目录前言1. 使用import语句1.1 基本用法1.2 导入特定函数1.3 处理文件路径2. 使用ex