论文笔记《Part-of-Speech Tagging for Twitter with Adversarial Neural Networks》

本文主要是介绍论文笔记《Part-of-Speech Tagging for Twitter with Adversarial Neural Networks》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这里记录近两个月阅读论文中,最贴近项目需求的几篇论文,此博为其中一篇,也是思想引用最多的一篇。

0、Paper basic information
Authors:Tao Gui, Qi Zhang∗, Haoran Huang, Minlong Peng, Xuanjing Huang
School: Fudan University
Published 2017 in EMNLP

1.Introduction
Twitter社交媒体内容具有非正式、非标准词汇;不同领域之间地差异;lack of training data and out-of-vocabulary words.

提出TPANN网络,使用大量其他领域注释数据、领域内未标记数据、少量标记领域内数据,为客服敌对网络只能学习通用特性地缺陷,使用autoencoder只对目标数据集进行操作,以保留其特性。为解决out-of-vocablary问题,方法包含character level CNN 利用subword信息。

论文主要贡献:
合并large scale unlabeled in-domain data, out-of-domain label data, in-domain labeled data RNN, 通过 in-domain 和 out-of-domain 学习 domain-invariant 表示,通过学习表示构造跨域 POS tagger 试图保留目标域的特性。
实验结果表明,在三个不同数据集上取得更好的性能。

2.Approach
TPANN:学习资源丰富领域和目标领域之间学习共同特征,同时保持目标领域特性。
将双向LSTM扩展为 adversarial network 和 autoencoder,模型分为四部分:Feature Extractor, POS Tagging Classifer,Domain Discriminator,Target Domain Autoencoder.

2.1 Feature Extractor
F采用CNN提取character embedding feature,可解决词汇表外问题,为合并word embedding features,连结 word embedding、character embedding 作为下一层 bi-LSTM 输入,用 bi-LSTM 来 model sentences,F可提取顺序关系和上下文信息。

输入句子x,第i word: x ϵ S ( x ) x\epsilon S(x) xϵS(x) x ϵ T ( x ) x\epsilon T(x) xϵT(x),输入样本来自源领域和目标领域。

θ f \theta _{f} θf:F的参数,$\nu $ : the vocabulary of words, C C C : the vocabulary of characters, d : character embedding 的维度 Q ϵ R d × ∣ c ∣ Q\epsilon R^{d\times \left |c \right |} QϵRd×c : representation matrix of vocabulary.
假设$x_{i}\epsilon \nu $ 组成字符序列 c i = [ c 1 , c 2 , . . . , c l ] c^{i} = [c_{1},c_{2},...,c_{l}] ci=[c1,c2,...,cl] l l l是单词最大长度,每个单词会被填充到这个长度。 c i ϵ R d × l c^{i} \epsilon R ^{d\times l} ciϵRd×l:是CNN的输入。

采用一个narrow convolution between c i c^{i} ci and filter H ϵ R d × k H \epsilon R ^{d\times k} HϵRd×k,k是filter width。添加 a bias 应用非线性获得 a feature map m i ϵ R l − k + 1 m^{i} \epsilon R ^{l-k+1} miϵRlk+1 m i m^{i} mi 的第j个元素: i k [ j ] = t a n h ( &lt; c i [ ∗ , j : j + k − 1 ] , H &gt; + b ) i^{k}[j]=tanh(&lt;c^{i}[*, j:j+k-1], H&gt;+b) ik[j]=tanh(<ci[,j:j+k1],H>+b)

&lt; A , B &gt; = T r ( A B T ) &lt;A,B&gt;=Tr(AB^{T}) <A,B>=Tr(ABT): the Frobenius inner product.
用 a max-over-time pooling operation over the feature map.
CNN 用不同宽度的 filters 获得 feature vector c i ⃗ \vec{c_{i}} ci for word \vec{x_{i}}

character-level feature vector c i ⃗ \vec{c_{i}} ci 是连接到 word embedding w i ⃗ \vec{w_{i}} wi 为下一层 bi-LSTM 输入
word embedding w i ⃗ \vec{w_{i}} wi 是预先训练了30 million tweets.
then, the hidden states h h h of bi-LSTM 变成 features 将 transfered to P , Q , R P,Q,R P,Q,R,即 F ( x ) = h F(x) = h F(x)=h.

2.2 POS Tagging classifier and Domain Discriminator
P P P and Q Q Q F ( x ) F(x) F(x) 为输入。有standard feed-forward networks with a softmax layer for classification. P P P 预测POS tagging label to 获得分类能力, Q Q Q 区别域标签使 F ( x ) F(x) F(x) 域不变。 P P P maps the Feature vector F ( x i ) F(x_{i}) F(xi) to its label. mapping 的参数表示为 θ y \theta _{y} θy. 在 N s N_{s} Ns样本,源领域内 with the 交叉熵损失。 L t a s k = − ∑ i = 1 N s y i ∗ l o g y i ^ L_{task}=-\sum_{i=1}^{N_{s}}y_{i}*log\hat{y_{i}} Ltask=i=1Nsyilogyi^.

y i y_{i} yi 是 POS tagging label 的 one-hot 向量,对应 x i ϵ S ( x ) x_{i}\epsilon S(x) xiϵS(x)
y i ^ = P ( F ( x i ) ) \hat{y_{i}}=P(F(x_{i})) yi^=P(F(xi)),是top softmax层的输出。
参数 θ f , θ y \theta _{f},\theta _{y} θf,θy 通过降低分类损失 L t a s k L_{task} Ltask 进行优化,确保 P ( F ( x i ) ) P(F(x_{i})) P(F(xi)) 可对源领域做出预测。

相反,domain discriminator maps the same hidden states h h h to the domain labels. 参数 θ d \theta _{d} θd 区分域标签用损失函数 L t y p e = ∑ i = 1 N s + N t { d i l o g d i ^ + ( 1 − d i ) l o g ( 1 − d i ^ ) } L_{type}=\sum_{i=1}^{N_{s}+N_{t}}\left \{ d_{i}log\hat{d_{i}} +(1-d_{i})log(1-\hat{d_{i}})\right \} Ltype=i=1Ns+Nt{dilogdi^+(1di)log(1di^)}
d i d_{i} di 是样本i的ground truch domain label. d i ^ \hat{d_{i}} di^:top layer 输出: d i ^ = Q ( F ( x i ) ) \hat{d_{i}}=Q(F(x_{i})) di^=Q(F(xi))

domain discriminator 通过最小化 θ d \theta _{d} θd 的损失,达到损失函数的a saddle point,同时最大化 θ f \theta _{f} θf loss 确保域区别器不能区别域,即特征提取器发现两领域共同特征。

这篇关于论文笔记《Part-of-Speech Tagging for Twitter with Adversarial Neural Networks》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/699158

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi