Gated Self-Matching Networks for Reading Comprehension and Question Answering论文笔记

本文主要是介绍Gated Self-Matching Networks for Reading Comprehension and Question Answering论文笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原文下载链接

摘要

检索式问答系统试图从文档中获取问题的答案。一般步骤是先从一众文档中检索相关文档,然后再进一步检索文档回答问题。本文解决的是后一步,即阅读理解式的问答系统。文章基于端到端的多层神经网络模型从篇章中获取答案。

模型分为四部分:一是使用多层双向神经网络编码问题和篇章的语义向量表示;二是使用门注意力机制得到问题感知的篇章的语义向量表示;三是通过 Self-Matching 注意力机制提炼篇章的语义向量表示,从全部篇章中编码最终语义向量表示;四是利用 Pointer-network 来预测答案边界,从而得到最终答案。在 Stanford 发布的机器阅读理解比赛数据集 SQuAD 上,本文提出的模型的单模型和集成模型结果都分别排名第一。

Task 描述

对于阅读理解式的问答系统,给出了一个段落P和问题Q,我们的任务是根据在P中找到的信息预测答案A.

Gated Self-Matching Networks(门自匹配网络)

整个框架如Figure 1所示,首先,问题和段落分别由双向循环网络处理。 然后,我们将问题和段落通过门注意力的循环网络(gated attention-based recurrent networks)相匹配,从而获得该段落的问题感知表示。 之后,用自匹配注意力来整和整个段落的信息以进一步优化段落的表达,然后将其输入到输出层来预测答案的边界。

                 

1.问题与段落编码

问题,段落,首先将words转换成word-level的embeddings以及character-level的embeddings,character-level的embeddings是双向RNN的最后一个隐含状态,之所以加上character-level的embeddings,是因为其能够处理out-of-vocab(OOV)的情况,通过双向RNN(所有网络中的RNN都是采用的GRU,因为GRU和lstm的效果相当,但是计算量较小)得到Q和P的新的表达:                                        

2.门注意力RNN(Gated Attention-based Recurrent Networks)

这一层的目的是将问题中的信息添加到段落的表达中:

                                                         

                                                   

                                                              注括号内为[u_t_(P),c_t]*

V_t_(P)为新生产的段落中words的表达,请参看Figure1进行理解,门是基于当前段落word及其 attention-pooling vector of the question,其侧重于问题与当前段落word之间的关系。 门有效地模拟了阅读理解中只有部分word是和问题相关的。

3.自匹配注意力(self-Matching Attention)

通过上述操作,已经编码出了段落中的哪部分是重要的,但是这样的编码还存在的问题是:这部分重要段落缺乏上下文信息,因此这部分就是解决该问题的。该部分编码出的段落表达(请参看Figure1):

                                                             

                                                     

4.输出层

采用pointer network来预测答案的开始和结束位置,利用注意力机制作为选择起始位置()和结束位置():

                                                           

其中为pointer network的最后一个隐含层状态,pointer network的输入为基于当前预测概率的attention-pooling vector:

                                                            

采用问题向量作为attention-pooling vector:

                                              

训练时,最小化真实start和end位置的负log概率之和。

实验

文章的实验做得比较充分,这里补充一些实现细节:out-of-vocab的word是用零向量表示的;采用1层双向GRU来计算character-level embeddings,3层双向RGU编码问题和段落,所有层中隐含层向量长度都设置为75,层间dropout 率为0.2,优化方法AdaDelta,初始学习率为1,分别为0.95和1e-6。

1.和其他算法的对比实验

R-NET代表本文算法

2.每个部分的重要性

-代表去除,+代表添加,上述两个表格可以反映出本文各个部分的重要作用

3.统计发现

                                  

(a)可以看出问题类型为when和who时,表现较好,当为why时表现很差,这主要是因为why问题的答案是多样的;(b)可以看出,当答案很长时,表现很差,这说明答案越长越难预测;(c)和(d)可以看出整体相对稳定,当段落和问题很长时,可能表现较差,这是因为其中的有用信息所占比例较短。

 

这篇关于Gated Self-Matching Networks for Reading Comprehension and Question Answering论文笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/695589

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi