深度学习论文阅读笔记 | MemNetIAN情感分析论文EMNLP 2016

2023-10-15 03:59

本文主要是介绍深度学习论文阅读笔记 | MemNetIAN情感分析论文EMNLP 2016,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

深度学习论文阅读笔记 | MemNet&IAN情感分析论文EMNLP 2016

在这里插入图片描述

嗨,我是error。

这又是我的一个新系列,主要记录我阅读过的一些论文的笔记,与大家一起分享讨论,不定期更新,若有错误欢迎随时指出。


泛读

在这里插入图片描述

首先说一下整一篇论文的结构,这篇论文作者从MemNet汲取灵感,应用在多情感分类问题上面,结合注意力模型和定位取得了不错的成绩,达到了当时的SOTA。

论文的核心我也已经在思维导图中标记出来了,主要是在注意力模型和定位上面。

Abstract

We introduce a deep memory network for aspect level sentiment classification. Un- like feature-based SVM and sequential neu- ral models such as LSTM, this approach ex- plicitly captures the importance of each con- text word when inferring the sentiment polar- ity of an aspect. Such importance degree and text representation are calculated with multi- ple computational layers, each of which is a neural attention model over an external mem- ory. Experiments on laptop and restaurant datasets demonstrate that our approach per- forms comparable to state-of-art feature based SVM system, and substantially better than LSTM and attention-based LSTM architec- tures. On both datasets we show that mul- tiple computational layers could improve the performance. Moreover, our approach is also fast. The deep memory network with 9 lay- ers is 15 times faster than LSTM with a CPU implementation.

摘要在对比了经典的SVM和LSTM模型后提到了自己这个模型的优点:

1.准确率高,目前的SOTA

2.运行速度快,即使九层依旧比LSTM快15倍

3.模型更稳定,在分析极性情感时更robust

Introduction

这一个part举了一个例子:

“great food but the service was dreadful!”

这是一个很典型的例子,首先是涉及到两个aspect,其次是两个aspect的评分极性完全相反。十分考验模型的分析准确度。

Despite these advantages, conventional neural
models like long short-term memory (LSTM) (Tang et al., 2015a) capture context information in an im- plicit way, and are incapable of explicitly exhibit- ing important context clues of an aspect.

紧接着作者分析了传统LSTM的缺点,不能够很明确的定位到决定这个aspect的情感词。

Each layer is a content- and location- based attention model, which first learns the importance/weight of each context word and then utilizes this information to calculate continu- ous text representation.

然后作者点出了自己模型的一个架构,即共享参数,打通分析信息的屏障。

As every component is differentiable, the entire model could be efficiently trained end-to- end with gradient descent, where the loss function is the cross-entropy error of sentiment classification

还有一些简要的介绍。


精读

首先看下整个模型的结构示意图
在这里插入图片描述

整个模型是借鉴了End-to-end MemNet的结构,
在这里插入图片描述

首先将aspect词提取出来后将剩下的句子和aspect都转化为vector,注意这里的embedding参数是共享学习的,没有区分。

It is helpful to note that the parameters of attention
and linear layers are shared in different hops. There- fore, the model with one layer and the model with nine layers have the same number of parameters.

如果aspect词量不同如何解决,作者也给出了方案,就是取平均,为了方便,下面的内容都以单个aspect词为例

If aspect is a single word like “food” or “service”, aspect representation is the embedding of aspect word. For the case where aspect is multi word expression like “battery life”, aspect represen- tation is an average of its constituting word vectors (Sun et al., 2015).

3.3 Content Attention

在这里插入图片描述

接下来的重点为Content Attention,通过一个0-1的权重a来调节注意力,而a又是通过一个softmax(g)求得,g则是通过一个对线性层非线性tanh激活所得到的。

在这里插入图片描述
在这里插入图片描述

这里作者总结了这个模型的两个优点,即

One advantage is that this model could adaptively assign an importance score to each piece of memory mi according to its semantic relatedness with the aspect. Another advantage is that this at- tention model is differentiable, so that it could be easily trained together with other components in an end-to-end fashion.

1.可根据aspect自动调整在每个memory的注意力

2.受益于此模型结果,此模型可以快速融合与其他模块在一起训练。

3.4 Location Attention

本模型另一个亮点为定位注意力模型,一般来说离这个词越近,注意力就应该越大,此模型也符合这样的认知。作者同时给出了四个注意力策略供选择。

4.4 Effects of Location Attention

在这里插入图片描述

可见定位注意力模型对准确定位对应的情感词有很大帮助

但在多个hop上跑的时候发现只有在5之后才略显优势

在这里插入图片描述


小总结

本篇论文从记忆网络的架构得到灵感将它应用到多情感分类问题上面,最终取得了当时的SOTA。此模型最显著的优势我觉得有两个,一个是面对多aspect的情感分析上很robust,这得益于location attention的功劳。其次是速度,是的,还记得开头作者提到的吗?即使是9层hop都要比LSTM快15倍,这个速度的提升是十分可怕的。究其原因是作者在hop上面的巧妙结构上,没有采用LSTM一层套一层的结构而是相对独立的一个个hop,即保证了效果也大大提高了速度。

如果你也想下载原文来看看,为了防止链接安全性,关注微信公众号【error13】并回复IAN即可免费获得链接。

在这里插入图片描述
在这里插入图片描述

这篇关于深度学习论文阅读笔记 | MemNetIAN情感分析论文EMNLP 2016的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/215211

相关文章

Go使用pprof进行CPU,内存和阻塞情况分析

《Go使用pprof进行CPU,内存和阻塞情况分析》Go语言提供了强大的pprof工具,用于分析CPU、内存、Goroutine阻塞等性能问题,帮助开发者优化程序,提高运行效率,下面我们就来深入了解下... 目录1. pprof 介绍2. 快速上手:启用 pprof3. CPU Profiling:分析 C

MySQL表锁、页面锁和行锁的作用及其优缺点对比分析

《MySQL表锁、页面锁和行锁的作用及其优缺点对比分析》MySQL中的表锁、页面锁和行锁各有特点,适用于不同的场景,表锁锁定整个表,适用于批量操作和MyISAM存储引擎,页面锁锁定数据页,适用于旧版本... 目录1. 表锁(Table Lock)2. 页面锁(Page Lock)3. 行锁(Row Lock

Python与DeepSeek的深度融合实战

《Python与DeepSeek的深度融合实战》Python作为最受欢迎的编程语言之一,以其简洁易读的语法、丰富的库和广泛的应用场景,成为了无数开发者的首选,而DeepSeek,作为人工智能领域的新星... 目录一、python与DeepSeek的结合优势二、模型训练1. 数据准备2. 模型架构与参数设置3

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

C#使用DeepSeek API实现自然语言处理,文本分类和情感分析

《C#使用DeepSeekAPI实现自然语言处理,文本分类和情感分析》在C#中使用DeepSeekAPI可以实现多种功能,例如自然语言处理、文本分类、情感分析等,本文主要为大家介绍了具体实现步骤,... 目录准备工作文本生成文本分类问答系统代码生成翻译功能文本摘要文本校对图像描述生成总结在C#中使用Deep

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操

Redis主从/哨兵机制原理分析

《Redis主从/哨兵机制原理分析》本文介绍了Redis的主从复制和哨兵机制,主从复制实现了数据的热备份和负载均衡,而哨兵机制可以监控Redis集群,实现自动故障转移,哨兵机制通过监控、下线、选举和故... 目录一、主从复制1.1 什么是主从复制1.2 主从复制的作用1.3 主从复制原理1.3.1 全量复制

五大特性引领创新! 深度操作系统 deepin 25 Preview预览版发布

《五大特性引领创新!深度操作系统deepin25Preview预览版发布》今日,深度操作系统正式推出deepin25Preview版本,该版本集成了五大核心特性:磐石系统、全新DDE、Tr... 深度操作系统今日发布了 deepin 25 Preview,新版本囊括五大特性:磐石系统、全新 DDE、Tree