[论文解读]Genre Separation Network with Adversarial Training for Cross-genre Relation Extraction

本文主要是介绍[论文解读]Genre Separation Network with Adversarial Training for Cross-genre Relation Extraction,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在这里插入图片描述

  • 论文地址:https://www.aclweb.org/anthology/D18-1125.pdf
  • 发表会议:EMNLP2019

本论文的主要任务是跨领域的关系抽取,具体来说,利用某个领域的数据训练好的关系抽取模型,很难去直接抽取另一个领域中的关系,比如我们拿某个领域训练好的模型,把另一个领域的数据直接输入整个模型,很难抽取出来正确的实体关系。这主要是因为源领域和目标领域特征表达的不同,在源领域的某个特征,在目标领域可能表达相反的意思。而为了在领域迁移时可以直接利用模型,而不用再训练一次,本论文提出了一种新的跨领域关系抽取模型。

  • 主要思想
    跨领域迁移问题的核心问题是,源领域和目标领域的特征表示不同,所以无法直接把源领域学习的模型应用到目标领域。而解决这个问题的核心思想就是,抽取出源领域和目标领域的共有特征,然后利用这些共有特征完成目标领域的任务。那既然训练时也要用到目标领域的数据,为何不单独为目标领域训练一个模型?答案是任务本身就是我们只知道源领域的标签值,如何用标注好的源领域的数据和未标注的目标领域的数据,去预测出目标领域的标签值。既然不知道目标领域的标签值,那么也就无法单独为目标领域训练一个模型了。
    跨领域特征分布图
    依据上述核心思想,在如何找到源域和目标域的共有特征问题上,目前主要流行如上图所示的三种跨领域共有特征抽取方法,第一种是Feature engineering,代表论文为Cross-Domain Sentiment Classification via Spectral Feature Alignment。这种方法主要是通过构建新的特征表示方式,从而让源域学习到的特征也包含了目标域的特征,即学习到了一部分共有特征,从而在目标域上预测的时候不会产生矛盾,但是这种通过手工构造特征的方法显然不能捕捉到所有的公共特征,如图所示,有很多公共特征被分到了独有特征里。第二种是Feature projection,这种方法比较流行,主要是把源域的特征和目标域的特征都抽取到一个共有特征空间内,但是这样显然会把独有的特征包含进来,从而在目标领域的预测中产生误差。第三种是作者提出的领域分离网络,数据不再像Feature Projection那样feed进一个共有的编码器网络,而是根据领域的不同feed进两个编码器网络,相当于源领域和目标领域的独有特征,这两个网络不共享参数,然后所有数据还会feed进一个共有的编码网络,相当于共有特征。其实此网络几年前就已经提出,只不过作者应用在了关系抽取任务上,具体看论文:domain separation network。
  • 网络结构
    在这里插入图片描述
  • 一些细节
  1. 损失函数为四部分损失的相加: L = L r e l a t i o n + α L d i f f + β L r e c + γ L a d v _{L} = _{Lrelation}+ \alpha _{Ldiff}+ \beta _{Lrec}+\gamma _{Ladv} L=Lrelation+αLdiff+βLrec+γLadv,其中 L r e l a t i o n _{Lrelation} Lrelation是在共有特征空间上对源域数据集的关系分类损失,在测试阶段,也是用目标领域的数据集在这个共有特征空间上进行预测。为什么这么做呢?为什么不把学习到的独有特征考虑进去进行关系分类呢?独有特征不应该更能描述任务之间的差异性从而更好地进行关系分类吗?首先,训练的时候只能在共有特征上进行训练,因为训练时是用源域的数据集进行关系分类,所以肯定不能把target private cnn encoder的输出加进来,那样target encoder学习到的就会混杂一些源域的特征,同时如果把source private cnn encoder的输出加进来,那么shared encoder就会学习到一些源域的特征,这也不是我们希望的。测试时和训练时保持一致,所以也要在共有特征上进行测试。
  2. 为何要把private encoder的输出和shared encoder的输出加起来再输入下一层?我的理解是,能表示原始输入的是shared encoder的输出和private encoder的输出,所以把这两个加起来就能表示源输入的所有特征,然后加起来后重构的向量要和原来的每个位置的向量相似才行,这就保证了private encoder学到的必须是一些私有特征,即文中所说有意义(meanful)的,也就同时避免全0为题。
    现在看来, L a d v _{Ladv} Ladv使shared encoder学习共有特征, L r e c _{Lrec} Lrec使private encoder学习私有特征,而 L d i f f _{Ldiff} Ldiff使私有特征和共有特征尽可能不相似,即保证了私有特征和共有特征不相交。
    L r e l a t i o n _{Lrelation} Lrelation,保证了共有特征在源域上具有关系抽取的能力,从而也就使共有特征在目标域也具有关系抽取的能力。
  • 参考
    Genre Separation Network with Adversarial Training for Cross-genre Relation Extraction

这篇关于[论文解读]Genre Separation Network with Adversarial Training for Cross-genre Relation Extraction的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1136711

相关文章

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

MCU7.keil中build产生的hex文件解读

1.hex文件大致解读 闲来无事,查看了MCU6.用keil新建项目的hex文件 用FlexHex打开 给我的第一印象是:经过软件的解释之后,发现这些数据排列地十分整齐 :02000F0080FE71:03000000020003F8:0C000300787FE4F6D8FD75810702000F3D:00000001FF 把解释后的数据当作十六进制来观察 1.每一行数据

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

cross-plateform 跨平台应用程序-03-如果只选择一个框架,应该选择哪一个?

跨平台系列 cross-plateform 跨平台应用程序-01-概览 cross-plateform 跨平台应用程序-02-有哪些主流技术栈? cross-plateform 跨平台应用程序-03-如果只选择一个框架,应该选择哪一个? cross-plateform 跨平台应用程序-04-React Native 介绍 cross-plateform 跨平台应用程序-05-Flutte

2014 Multi-University Training Contest 8小记

1002 计算几何 最大的速度才可能拥有无限的面积。 最大的速度的点 求凸包, 凸包上的点( 注意不是端点 ) 才拥有无限的面积 注意 :  凸包上如果有重点则不满足。 另外最大的速度为0也不行的。 int cmp(double x){if(fabs(x) < 1e-8) return 0 ;if(x > 0) return 1 ;return -1 ;}struct poin

2014 Multi-University Training Contest 7小记

1003   数学 , 先暴力再解方程。 在b进制下是个2 , 3 位数的 大概是10000进制以上 。这部分解方程 2-10000 直接暴力 typedef long long LL ;LL n ;int ok(int b){LL m = n ;int c ;while(m){c = m % b ;if(c == 3 || c == 4 || c == 5 ||

2014 Multi-University Training Contest 6小记

1003  贪心 对于111...10....000 这样的序列,  a 为1的个数,b为0的个数,易得当 x= a / (a + b) 时 f最小。 讲串分成若干段  1..10..0   ,  1..10..0 ,  要满足x非递减 。  对于 xi > xi+1  这样的合并 即可。 const int maxn = 100008 ;struct Node{int

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear