《A Unified MRC Framework for Named Entity Recognition》ACL2020论文阅读

2023-10-21 03:10

本文主要是介绍《A Unified MRC Framework for Named Entity Recognition》ACL2020论文阅读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

机构为浙江大学、香侬科技。

存在的问题:

论文认为目前的的NER方法能够很高的解决flat NER任务,但是对于nested NER任务就显得不那么power。一般方法是分开做。

解决办法:

论文提出一种统一框架能够同时处理flat和nested两种类型问题。不将实体抽取看作NER问题,而是看作MRC。

上图为flat和nested实体的实例

举例:

抽取PER(PERSON)实体,“[Washington] was born into slavery on the farm of James Burroughs”,可以用问题“which person is mentioned in the text?”,当作一个抽取式问题回答。这种策略很自然地解决了nested NER中的实体重叠问题:提取两个具有不同类别重叠的实体需要回答两个独立的问题,那么flat和nested自然就是分别独立进行回答。

动机:

一般处理nested NER方法为pipeline的方法,但是pipeline有错误传播的缺点。受到目前将NLP任务看作QA tasks的潮流,提出能够统一处理flat和nested NER框架,每种实体类型都有一个question,实体是通过在给定的上下文中回答问题来提取的。类似SQuAD的形式。

Nested NER

嵌套的实体识别方法:1.利用多层的CRF进行抽取,可能先抽取最内层的实体,接下来抽取最外层的实体,或者反过来。2.利用解析树。3.使用hyper-graphs识别重叠部分。等等许多方法

MRC

论文提到有人将关系抽取作为QA问答。每种类型R(x,y)都可以被参数化为问题q(x) 答案为y 。例如:关系EDUCATED-AT可以被映射为“where did  x study?” 给定问题q(x) ,如果非空答案y可以从段落里抽取出来,这意味着当前段是R 。 有的将summarization或者情感分析作为MRC,summary任务的问题可以是“what is the summary?”。论文受到来自2019年的《A general framework for information extraction using dynamic span graphs》 的启发,2019的论文将entity-relation extraction作为多轮QA任务。

设计过程:

NER任务描述:

给定一个文本序列:X={x_1,x_2,...,x_n} 其中n为句子的长度,我们需要在序列X中找到每一个实体,并且y\in Y 进行标注,Y是预先定义的labels集合。

数据集构建:

首先将NER数据集转为(question,answer,context)三元组。对于每个tag type y\in Y,都会有一个问题q_y={q_1,q_2,...,q_m}m是生成问题的长度。标注实体为x_{start,end}={x_{start},x_{start+1},...,x_{end-1},x_{end}} 是一个子串,每一个实体都会有一个golden标签y\in Y ,通过生成问题q_y ,可以获得三元组{q_y,x_{start,end},X} 

问题生成:

这是最关键的一步,论文利用annotation guideline notes作为参考进行构造答案。annotation guideline notes是为标注工作提供依据。Guideline为tag定义类别并能够归纳类别和准确为人类标注提供了注释防止歧义。下图为例子:

为什么选择guideline这个方法,是因为论文探索不同的方法去生成问题以及评估他们的效果,发现guidline最好。探索过程如下:

  1. Position index of labels:使用index tag进行构造问题如,“one”、“two”
  2. Keyword:问题是描述tag的关键词,如:查询ORG tag的问题是organization
  3. Rule-based template filling:问题生成基于模板,对ORG tag的问题是:“which organization is mentioned in the text”。
  4. Wikipedia:使用wikipedia的定义进行构造问题,ORG tag的问题为:“an organization is an entity comprising multiple people, such as an institution or an association”
  5. Synonyms:从牛津词典中抽取与tag相近的同义词。ORG tag的问题为association
  6. Keyword+Synonyms:连接关键词和同义词
  7. Annotation guideline notes:该论文使用的方法,ORG tag的问题为:“find organizations including companies, agencies and institutions

在后面做实验进行对比,结果如下:

模型:

使用BERT作为baseline,输入形式为。输出为context representation 矩阵d 为BERT最后一层vector维度。

区间选择:

论文中采用了两个二分类器,去判断每个是否为start,是否为end。

Start index预测如下:

是权重,代表了start的可能性。

End index也类似如上的公式

Start-End匹配:

对于文本,可能有多个同类实体,这意味着有多个start和end下标会被预测出来。找到start对应的end也需要去进行匹配。

每一行做argmax,得到了两个长度为n 的one-hot 编码的向量,记作

上标代表矩阵的第行, 

简单的说,对于中,子序列  属于实体的概率为矩阵E 中start和end 所在行的两个向量先concat 然后乘参数m ,最后过一层sigmoid 函数即可。 m 是学习参数。

训练:

定义三个loss如下:

总loss如下:

其中是超参,控制三个不同loss的贡献度。

实验过程:

数据集:

ACE 2004, ACE 2005, GENIA,KBP2017,各自包含了24%、22%、10%、19%的nested NER。

ACE2004和ACE2005:包含7种不同的实体类型,对每类实体都有entity mentions and mention heads。

实验结果:

上图展示了基于BERT的MRC的模型表现,均达到最优。

Ablation studies

Zero-shot Evaluation on Unseen Labels

训练模型在CoNLL 2003训练集,测试集为OntoNotes5.0。OntoNotes5.0包含18种不同类型,其中3种和CoNLL2003一样,15种模型没有见过。

而且,相比BERT-Tagger来说,BERT-MRC达到同样效果所需要的数据量更少。

但是,看代码发现,直接使用guideline来进行问题生成

{"NR": "人名和虚构的人物形象","NS": "按照地理位置划分的国家,城市,乡镇,大洲","NT": "组织包括公司,政府党派,学校,政府,新闻机构"
}

 数据集:

{"context": "因 有 关 日 寇 在 京 掠 夺 文 物 详 情 , 藏 界 较 为 重 视 , 也 是 我 们 收 藏 北 京 史 料 中 的 要 件 之 一 。","end_position": [3,6,28],"entity_label": "NS","impossible": false,"qas_id": "2.1","query": "按照地理位置划分的国家,城市,乡镇,大洲","span_position": ["3;3","6;6","27;28"],"start_position": [3,6,27]}

这样的问题生成和使用模板似乎并没有区别。

对最后的效果保持一定怀疑性。

而且,判断实体是对每个单词都进行二分类操作,判断是否为开始和结束index。

 

 

 

 

 

 

 

 

 

 

这篇关于《A Unified MRC Framework for Named Entity Recognition》ACL2020论文阅读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/251537

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

Spring Framework系统框架

序号表示的是学习顺序 IoC(控制反转)/DI(依赖注入): ioc:思想上是控制反转,spring提供了一个容器,称为IOC容器,用它来充当IOC思想中的外部。 我的理解就是spring把这些对象集中管理,放在容器中,这个容器就叫Ioc这些对象统称为Bean 用对象的时候不用new,直接外部提供(bean) 当外部的对象有关系的时候,IOC给它俩绑好(DI) DI和IO

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需