当GNN遇见NLP(十一):Directed Acyclic Graph Network for Conversational Emotion Recognition,ACL2021

本文主要是介绍当GNN遇见NLP(十一):Directed Acyclic Graph Network for Conversational Emotion Recognition,ACL2021,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述
同上一篇一样,是使用图建模对话情绪识别的论文。本文提出了用有向无环图(DAG)对对话进行编码的方法(DAG-ERC),主要借鉴了ICLR2021发表的工作DAGNN(Directed acyclic graph neural networks.)中的GNN改进策略。DAG-ERC在DAGNN的基础上进行了两个改进:(1)基于说话人身份的关系感知特征转换,以收集信息;(2)上下文信息单元,以增强历史上下文信息。下面就看具体的内容。

Method

Building a DAG from a Conversation

最开始的部分依旧是构图。utterances构成了节点, r i , j ∈ R r_{i,j}\in R ri,jR表示边的类型。这里边的定义比较简单,1表示这两个相连的话语是由同一说话者说的,0表示其他。这样一来同一个speaker的历史utterance就可以由此建模。但是,本文在构建边的时候考虑了remote以及local信息的不同,因为与当前utterance相邻的则具有更高的影响力。因此,边需要由以下三点特殊性:

  1. Direction。这个在类似的论文里都有应用,有向边表示在传递过程中,未来的utterance不能被当前所见。
  2. Remote information。针对一个特定的speaker,除了他说的第一句话外,必定会有一个 u τ u_\tau uτ,这个utterance之前的对话都包含了remote信息。
  3. Local information。 u τ u_\tau uτ之内的utterance包含的是local信息。在本文中,使用一个窗口参数 w w w确定 u τ u_\tau uτ的位置,在截断点和当前说话节点之间的任意节点 u l u_l ul,都是local的节点。

总体的构图思路如图(还是蛮好理解的):
在这里插入图片描述
为了更方便理解,本文也给出了一个 w = 1 w=1 w=1的特殊例子:
在这里插入图片描述

Directed Acyclic Graph Neural Network

对于之前的工作,许多都是使用Glove300这种静态向量,而本文则在每个ERC数据集上对预训练的语言模型(本文用的是RoBerta)进行微调,然后在训练DAG-ERC时冻结其参数。那么任意一个utterance u i u_i ui就可以用 [ C L S ] [CLS] [CLS]来表示了。

DAGNN

接下来看本文的GNN结构。
有向无环图模型(DAGNN)的工作方式类似GNN和RNN的组合。它们按时间顺序聚合每个节点的信息,并允许所有节点从邻居收集信息,并在同一层更新它们的状态:
在这里插入图片描述
在这里插入图片描述
这里的 f f f实际上是GRU或是LSTM的门更新机制,在源码里就是直接使用的GRUCell。而本文的更新方法由于需要引入特异性的边,因此与上述方法有些不同:

DAG-ERC Layers

首先,以注意力的方式对节点特征进行聚合。注意力计算方式如下:
在这里插入图片描述
而由于边不同,因此提出了基于不同类型边的转换:
在这里插入图片描述
这里 W r i , j l ∈ { W 0 l , W 1 l } W^l_{r_{i,j}}\in \{W^l_0, W^l_1\} Wri,jl{W0l,W1l},代表了不同的边使用不同特征变换。最终节点的特征使用GRU进行更新:
在这里插入图片描述
但是,ERC仅使用节点信息单元是不够的,尤其是当情感需要从其上下文中提取时。因此,作为聚合了上下文信息的 M i l M_i^l Mil,可以用于如下的计算进一步提取上下文:
在这里插入图片描述
之后,节点的历史信息和上下文信息的共同决定了utterance节点所表达出的情感:
在这里插入图片描述
最终,预测的结果可以由以下方法计算:
在这里插入图片描述
损失函数:
在这里插入图片描述

Experiment

数据集:
在这里插入图片描述
对比一些基线:
在这里插入图片描述
进一步定义了三种DAG结构:(1)顺序结构,即话语之间依次连接;(2)本地信息单一的DAG,每句话只从最近的邻居处接收本地信息,而远程信息与我们的DAG保持一致;(3)每个utterance都和前 k k k个进行连接,不区分边的类型。不同变种的结果:
在这里插入图片描述
消融实验:
在这里插入图片描述
层数的影响:
在这里插入图片描述

这篇关于当GNN遇见NLP(十一):Directed Acyclic Graph Network for Conversational Emotion Recognition,ACL2021的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/832401

相关文章

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

STM32(十一):ADC数模转换器实验

AD单通道: 1.RCC开启GPIO和ADC时钟。配置ADCCLK分频器。 2.配置GPIO,把GPIO配置成模拟输入的模式。 3.配置多路开关,把左面通道接入到右面规则组列表里。 4.配置ADC转换器, 包括AD转换器和AD数据寄存器。单次转换,连续转换;扫描、非扫描;有几个通道,触发源是什么,数据对齐是左对齐还是右对齐。 5.ADC_CMD 开启ADC。 void RCC_AD

十一、C语言:字符串函数

目录 一、strlen 二、strcpy 三、strcat  四、strcmp 五、strstr 六、strtok 七、strerror 一、strlen 注意:strlen()函数的返回值是size_t,两个size_t相减仍为无符号数 int main(){char arr[10] = "abc";char brr[10] = "abc123";if (strl

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

python基础语法十一-赋值、浅拷贝、深拷贝

书接上回: python基础语法一-基本数据类型 python基础语法二-多维数据类型 python基础语法三-类 python基础语法四-数据可视化 python基础语法五-函数 python基础语法六-正则匹配 python基础语法七-openpyxl操作Excel python基础语法八-异常 python基础语法九-多进程和多线程 python基础语法十-文件和目录操作

SIGMOD-24概览Part7: Industry Session (Graph Data Management)

👇BG3: A Cost Effective and I/O Efficient Graph Database in ByteDance 🏛机构:字节 ➡️领域: Information systems → Data management systemsStorage management 📚摘要:介绍了字节新提出的ByteGraph 3.0(BG3)模型,用来处理大规模图结构数据 背景

深度学习--对抗生成网络(GAN, Generative Adversarial Network)

对抗生成网络(GAN, Generative Adversarial Network)是一种深度学习模型,由Ian Goodfellow等人在2014年提出。GAN主要用于生成数据,通过两个神经网络相互对抗,来生成以假乱真的新数据。以下是对GAN的详细阐述,包括其概念、作用、核心要点、实现过程、代码实现和适用场景。 1. 概念 GAN由两个神经网络组成:生成器(Generator)和判别器(D

A Comprehensive Survey on Graph Neural Networks笔记

一、摘要-Abstract 1、传统的深度学习模型主要处理欧几里得数据(如图像、文本),而图神经网络的出现和发展是为了有效处理和学习非欧几里得域(即图结构数据)的信息。 2、将GNN划分为四类:recurrent GNNs(RecGNN), convolutional GNNs,(GCN), graph autoencoders(GAE), and spatial–temporal GNNs(S

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

【python 走进NLP】两两求相似度,得到一条文本和其他文本最大的相似度

应用场景: 一个数据框里面文本,两两求相似度,得到一条文本和其他文本最大的相似度。 content source_id0 丰华股份军阀割据发生的故事大概多少w 11 丰华股份军阀割据发生的故事大概多少 22 丰华股份军阀割据发生的故事大概多少 33 丰华股份军阀割据发生的故事大概多少