12.Coupling Global and Local Context for Unsupervised Aspect Extraction阅读笔记

本文主要是介绍12.Coupling Global and Local Context for Unsupervised Aspect Extraction阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Coupling Global and Local Context for Unsupervised Aspect Extraction

19EMNLP
CUHK :香港中文大学

在这里插入图片描述

3.1 Input and Output

在接触细节以揭示本文的模型如何工作之前,首先描述本文的输入和输出。

输入

给定一个有|C|个句子的数据集C,{X1,X2,……,X|c|}。将每一个句子X表示成两种形式,词序列形式Xseq和词袋形式Xbow。将Xseq输入局部上下文模型,习得单词如何与其邻居共同出现。而将Xbow作为全局上下文模型的输入,捕获句子级的单词共现规律。

输出

本文的目标是输出属性词的分布簇。然后根据Qiu et al.(2011)的实践,从每个聚类(按似然排序)中选取前N个名词(N作为超参数)作为提取的属性词,因为大多数方面都是名词。

3.2 Local Context Modeling

   正如上面提到的,局部上下文模块将词序Xseq作为其输入。在LCM模型中,首先对每个单词wn∈Xseq进行嵌入层处理,将其转换为嵌入向量en。然后采用长短时记忆(网络(Hochreiter and Schmidhuber, 1997)来探索局部上下文。单词嵌入e1, e2,…, e|x|通过循环探索左邻居的单词共现处理到隐藏状态。具体来说,对于单词wn,其隐含状态hn为:
在这里插入图片描述

3.2 Global Context Modeling

   我们的全局上下文建模模块受到了以前使用LDA-fashion贝叶斯图形模型发现属性词的实践的启发(Lin和He, 2009)。我们假设在给定的语料c中嵌入了K个潜在属性因子。每个因子φk (K = 1,2,…(K)在词汇V上用分布词聚类表示。

    同样受到神经主题模型(Miao et al., 2017)的启发,我们采用了带有编码器和解码器的可变自动编码器(VAE) ,以类似于主题模型样式的数据生成过程。在这样做的过程中,我们使潜在属性,即在全局和局部上下文中捕获单词共现,能够在神经结构中学习。主要涉及两个步骤:首先,将输入语句x (BoW形式xbow)编码为全局表示z,以z为条件,加上局部表示hn,解码器进一步生成xbow’,。在本节的其余部分中,我们首先介绍编码器如何从全局上下文学习全局表示z。然后,我们将介绍如何将全局表示和局部表示耦合在一起进行数据生成。

Global Representation Encoding

编码器被用于从xbow去学习全局表示z.假设全局条件下的词满足高斯分布,以平均µ和标准差σ为优先。其估算公式定义为:
在这里插入图片描述

Coupling Global and Local Context

从局部上下文模型中,我们得到了隐状态hn(n = 1,2,……,|x|),接下来描述如何将hn与全局表示z耦合。
具体来说,我们对局部表示中的隐藏状态hn采用注意机制(Bahdanau et al., 2015),该机制在感知全局信息的情况下,旨在识别x中能够有用地表示其属性因素的单词。我们设计了注意权重αn来衡量单词wn和x的全局表示z之间的相似度:
在这里插入图片描述

Decoding Process

给定全局表示z和全局范围局部表示c,解码器在两者上进行数据生成过程。对于每个输入句子x,我们假设每个单词wn∈Xbow是根据其属性混合, θ,反映x的属性因子组成的Kdim分布进行采样的。然后用z和c估计θ,传递x单词的全局和局部上下文。描述x生成过程的故事是:
在这里插入图片描述

这篇关于12.Coupling Global and Local Context for Unsupervised Aspect Extraction阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/638374

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

AI基础 L9 Local Search II 局部搜索

Local Beam search 对于当前的所有k个状态,生成它们的所有可能后继状态。 检查生成的后继状态中是否有任何状态是解决方案。 如果所有后继状态都不是解决方案,则从所有后继状态中选择k个最佳状态。 当达到预设的迭代次数或满足某个终止条件时,算法停止。 — Choose k successors randomly, biased towards good ones — Close

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi