【论文阅读】【基于方面的情感分析】Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis

本文主要是介绍【论文阅读】【基于方面的情感分析】Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis
    • 一、该论文关注的是解决ABSA问题的哪个方面?驱动是什么?具体目标是解决什么问题?
    • 二、该论文采用的方法是什么,方法的核心原理是什么?
    • 三、该方法是如何提出的,是开创性的方法还是对已有方法进行的改进,创新点是什么?
    • 四、该论文展示的结果如何?使用的是什么数据集?
    • 五、该论文是否提出还有需要改进的地方,即future work?
    • 六、该论文的实际应用点在于什么?

Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis

一、该论文关注的是解决ABSA问题的哪个方面?驱动是什么?具体目标是解决什么问题?

方面:统一两个子任务的架构+改进模型(将句法信息集成到上下文嵌入模型中)

驱动
①基于方面的情感分析(ABSA)包括两个概念任务,即AE(aspect extraction)和AOE(Aspect-oriented Opinion Extraction)。然而,报告的大多数工作只关注于这两个子任务中的一个,最近有研究试图开发一种综合解决方案,通过统一标记方案将两个子任务制定为单个序列标记,从而同时解决这两个任务,但是这种解决方式会带来开销和复杂度。

③NLU的最新进展引入了上下文嵌入语言模型(contextualized language models),即OpenAI GPT 、BERT和RoBERTa。这些模型可以捕捉单词使用的特征,并考虑单词出现的不同文本上下文。但是很明显,他们无法确定多字方面的边界。例如,提取器将“食品质量”的多词表达分解为“质量”和“食物”。这篇论文认为这一缺陷是由于上下文化嵌入无法编码丰富的语法信息造成的,之前的ABSA研究中没有充分利用句法信息。

具体目标
①构建一个端到端的ABSA解决方案,而不是单独考虑任务【端到端的ABSA:即输入一个上下文有关联的句子S,端到端的ABSA旨在提取由m个方面词组成的序列A,输出每一个方面词的情感极性。】
②将句法信息集成到上下文嵌入语言模型中。

二、该论文采用的方法是什么,方法的核心原理是什么?

方法的提出

  • ①一个由AE和AEC组成的ABSA解决方案:
    在这里插入图片描述

  • 其中的AE——命名为CSAE(contextualized syntax-based aspect extraction)

    • POS embeddings
    • dependency-based embeddings
    • RoBERTa layer
  • 其中的ASC——命名为LCFS-ASC(local context focus on syntax -ASC)

    • 在Zeng et al. (2019) 的工作的基础上做改进,采用依赖树中两个词之间的最短路径作为句法相对距离(SRD)

综上
首先对AE和ASC两个子任务分别地进行改进,提出了CSAE和LCFS-ASC,然后综合构建了一个端到端的ABSA解决方案。

核心原理

  1. CSAE
    CSAE的架构如下图所示,输入一个句子,然后分别进行三个处理:
  • 上下文嵌入contextualized embedding【预训练】
    使用的是RoBERTa (Liu et al., 2019)

  • POS(a part-of-speech) embedding【利用词法信息】
    首先通过一个词法分析的工具(Universal POS Tags)来得到句子对应的词性标签序列,然后通过一个嵌入矩阵将词性转化为向量,接着输入到自注意力层来建模词性之间的依赖关系。

  • dependency-based embedding【利用句法信息】
    使用的是(Levy and Goldberg, 2014) ,利用句法信息的核心仍是依赖树。
    得到句子的表示后,通过一个全连接层来预测相应的情感极性。

在这里插入图片描述

  1. LCFS-ASC
    这个架构与LCF-BERT的思路相同,实际是这个模型上的改进。

    LCF-BERT的核心是:称[CLS]+S+[SEP]+A+[SEP]为global context(全局文本),而[CLS]+S+[SEP]为local context(上下文文本)。如何确定上下文是否属于特定方面的局部语境是重要的问题之一为了在local context引入属性词的信息,LCF-BERT中提出了两种方法(CDM/CDW)进行Local Context Focus(LCF)。
    CDM即为context dynamic mask,是指根据与属性词之间的距离来屏蔽句子中的一些单词;而完全屏蔽某些单词可能过于绝对,因此CDW(context dynamic weighting)则是按照与属性词之间的距离为单词赋予一个0到1之间的权重。这里的“距离”就是通过位置计算的。

    LCFS-ASC与LCF-BERT的不同之处就在于,在进行CDM/CDW时所使用的单词之间的距离,不再是通过位置计算,而是两个单词在句法解析树中的距离。

三、该方法是如何提出的,是开创性的方法还是对已有方法进行的改进,创新点是什么?

参考的观点或模型

  • ①CSAE中:
    上下文嵌入部分:使用的是RoBERTa (Liu et al., 2019)
    POS部分:使用了词法分析的工具——Universal POS Tags
    依赖嵌入部分:使用的是(Levy and Goldberg, 2014)

  • ②LCFS-ASC是在Zeng et al. (2019) 的工作的基础上做改进,Zeng et al. (2019) 的工作中,利用local context focus(LCF)机制来降低远离本地上下文的单词的贡献。这篇论文就是在此基础上引入句法信息,形成的local context focus on syntax(LCFS)机制。

创新点
本文的模型拆解开来实际上都是一些过去提出的模型,这篇论文的创新点在于对这些模型进行了组合和局部的改进。其次是在消融实验中研究了SRD的重要性。
①提出了多通道CSAE模型,该模型将语法aspect分解为上下文特征,以改进顺序标注;
②改进LCF-BERT提出了LCFS-ASC(改进点在于,距离不再是通过位置计算,而是两个单词在句法解析树中的距离),它可以分析单词之间的句法联系,从而更好地理解与目标词相关的本地语境
③通过探究LCF层的注意分值(attention score)研究了SRD的重要性【一个可视化+分析】

四、该论文展示的结果如何?使用的是什么数据集?

使用的数据集
在这里插入图片描述

实验指标:F1
实验结果
①AE单个任务结果+消融实验

  • 使用了词法信息和句法信息后,f1值有了较大的提升(CSAE>RoBERTa-AE)
  • 句法信息带来的提升更加明显(RoBERTa-Dep>RoBERTa-POS)

②单个ASC任务+消融实验

  • 使用了LCFS的策略之后,模型性能有了很大的提高
  • CDW优于CDM(因为CDM可能会错误地忽略有用的信号,另一方面,CDW强调灵活性,并允许根据其句法依存树上future sign和方面术语的关系提供微小权重)
  • LCFS稍微优于LCF

五、该论文是否提出还有需要改进的地方,即future work?

我们提出了一个端到端的ABSA解决方案,将方面提取器和方面情感分类器串联起来。研究结果表明,利用句子的句法结构可使情境化模型在ASC和AE任务中提高现有的工作。我们提出的方面情感分类器优于训练后的ASC模型,并能够创建一个领域独立的解决方案。所提出的SRD允许方面情感分类器聚焦于关键情感词,通过基于依赖的结构修改目标方面词。实质性的改进突出了最近语境化嵌入模型在“理解”句法特征方面的性能不足,并提出了开发更多语法学习语境化嵌入的未来方向。

我们可以尝试通过应用统一的标记方案来将我们提出的CSAE体系结构用于集成方法;从而可以同时实现方面提取和情感分类。

六、该论文的实际应用点在于什么?

首先,这篇论文与其他论文的不同之处在于,其创建的并不是一个直接的模型,而是先独立地解决AE和ASC问题,然后统一架构。
其次,这篇论文虽然是许多已有模型的组合和局部改进,在引入“语境”(即在ABSA的问题解决中仍然关注上下文的信息)的基础上,关注句法信息(也是利用的依赖树的思想),是一种已有思想的新组合。
综上,通过这种组合和局部改进的思想,这篇论文提出的是一个端到端的ABSA解决方案,即输入一个上下文有关联的句子S,端到端的ABSA旨在提取由m个方面词组成的序列A,输出每一个方面词的情感极性,是一个很“自动化”的过程。

这篇关于【论文阅读】【基于方面的情感分析】Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/339236

相关文章

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

MOLE 2.5 分析分子通道和孔隙

软件介绍 生物大分子通道和孔隙在生物学中发挥着重要作用,例如在分子识别和酶底物特异性方面。 我们介绍了一种名为 MOLE 2.5 的高级软件工具,该工具旨在分析分子通道和孔隙。 与其他可用软件工具的基准测试表明,MOLE 2.5 相比更快、更强大、功能更丰富。作为一项新功能,MOLE 2.5 可以估算已识别通道的物理化学性质。 软件下载 https://pan.quark.cn/s/57

衡石分析平台使用手册-单机安装及启动

单机安装及启动​ 本文讲述如何在单机环境下进行 HENGSHI SENSE 安装的操作过程。 在安装前请确认网络环境,如果是隔离环境,无法连接互联网时,请先按照 离线环境安装依赖的指导进行依赖包的安装,然后按照本文的指导继续操作。如果网络环境可以连接互联网,请直接按照本文的指导进行安装。 准备工作​ 请参考安装环境文档准备安装环境。 配置用户与安装目录。 在操作前请检查您是否有 sud

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

线性因子模型 - 独立分量分析(ICA)篇

序言 线性因子模型是数据分析与机器学习中的一类重要模型,它们通过引入潜变量( latent variables \text{latent variables} latent variables)来更好地表征数据。其中,独立分量分析( ICA \text{ICA} ICA)作为线性因子模型的一种,以其独特的视角和广泛的应用领域而备受关注。 ICA \text{ICA} ICA旨在将观察到的复杂信号

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear