NLP论文阅读记录 - WOS | 2022 使用语言特征空间的抽象文本摘要的神经注意模型

本文主要是介绍NLP论文阅读记录 - WOS | 2022 使用语言特征空间的抽象文本摘要的神经注意模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 0、论文摘要
  • 一、Introduction
    • 1.1目标问题
    • 1.2相关的尝试
    • 1.3本文贡献
  • 二.相关工作
  • 三.本文方法
    • 3.1 总结为两阶段学习
      • 3.1.1 基础系统
    • 3.2 重构文本摘要
  • 四 实验效果
    • 4.1数据集
    • 4.2 对比模型
    • 4.3实施细节
    • 4.4评估指标
    • 4.5 实验结果
      • 4.6 细粒度分析
  • 五 总结
  • 思考


前言

在这里插入图片描述

Neural Attention Model for Abstractive Text Summarization Using Linguistic Feature Space(2212)

0、论文摘要

摘要生成一个简短而简洁的摘要,描述源文本的主要思想。概括有两种形式:抽象概括和提取概括。提取式摘要从文本中选择重要的句子来形成摘要,而抽象式摘要通过添加新单词或短语来使用高级且更接近人类的解释来进行解释。
对于人类注释者来说,生成文档摘要既耗时又昂贵,因为它需要浏览长文档并撰写简短的摘要。
提出了一种用于文本摘要的自动特征丰富模型,该模型可以减少劳动量并通过使用提取和抽象方法生成快速摘要。功能丰富的提取器突出显示文本中的重要句子,并使用语言特征来增强结果。
然后将提取的摘要馈送到抽象器,以使用命名实体标签、词性标签和术语权重等特征进一步提供信息。
此外,引入损失函数来规范单词级和句子级注意力之间的不一致。所提出的两阶段网络在基准 CNN/DailyMail 数据集上取得了 37.76% 的 ROUGE 分数,优于早期的工作。
还进行人工评估,以衡量生成的摘要的全面性、简洁性和信息量。

一、Introduction

总之,生成文本信息的紧凑版本,其中通常包含原始文档的重要信息。概括有两种类型:提取式概括和抽象式概括。在提取式摘要中,摘要完全由段落​​组成;这是一种更简单的方法,因为从源文档复制数据可以确保语法准确性。另一方面,抽象不仅仅意味着仅仅选择几句话或几句话的概括。段落,还重新表述了文档的主要内容。该任务可以将长文本单词序列转换为包含信息内容的较短序列。大多数早期的摘要工作都集中在提取摘要[3]、[21]、[23]上。在抽象摘要[21]、[26]中,采用了复杂的机制来解释和生成原始文档中未见过的表达式。
自动文本摘要的实际应用有很多。它可以协助教育、研究、媒体监控、搜索引擎、问答系统、社交媒体分析和视频脚本编写。对于教育和媒体监控,自动摘要可以帮助我们把握文件的核心思想。可以通过收集与提取的总结答案相关的文档来改进问答系统的个人助理。视频脚本可以帮助人们根据视频的摘要标题选择所需的视频,而不是观看完整的长度。最近使用序列到序列模型将输入序列映射到相应的输出序列;该方法在语音识别 [5]、机器翻译 [1] 和视频字幕 [27] 方面取得了成功。类似地,基于注意力编码器-解码器的神经网络[1]被用于抽象概括。然而,这些模型最多只能重现不准确的事实细节,并且无法管理 OOV(词汇外)单词。迄今为止,现有文献中将详细信息输入DNN(深度神经网络)进行抽象概括的研究并不多,因此导致准确率不高。为了提高摘要文本的紧凑性,可以将附加信息与实际的词嵌入一起传递。在拟议的工作中,我们整合了多种文本特征,例如 POS(词性)标签、术语权重和命名实体。尽管机器翻译和抽象摘要有很多共同点,但它们不是同一任务。翻译是无损的,并且源和目标之间的机器翻译中存在强大的一对一单词级对齐。在抽象摘要中,目标不依赖于文档的长度,并且通常很短。此外,原始文档以有损方式压缩,以保留原始文档中最重要的内容。

1.1目标问题

1.2相关的尝试

1.3本文贡献

总之,我们的贡献如下:
该研究的主要贡献是使用丰富的特征集进行文档摘要。所提出的特征集包含句子位置、术语权重、命名实体标签、POS 标签以及数字和专有名词的总数。特征数量的增加提高了所得摘要的全面性。为此,我们提出了提取和抽象摘要的统一模型。首先,我们通过使用提取摘要来处理句子级注意力。其次,通过使用抽象摘要,我们在单词级注意力上调整输出。该方法允许提取摘要来帮助抽象摘要,从而减轻伪造的词级注意力。该实验使用具有超过 30 万条新闻文章的 CNN/DailyMail 数据集 [21]。我们表明该方法的 ROUGE 得分为 37.76%,优于早期的工作。还进行了人工评估,以确保两阶段总结网络的重要性。

二.相关工作

最近的大多数文本摘要工作都依赖于提取技术,其中句子和短语在源文档中被识别,并被复制为摘要[6]、[9]、[10]、[20]、[30]。有一些关于自动文本摘要系统的调查,使用注意力模型、数据集和评估方法来评估摘要的质量。
Jean 等人使用了神经网络。 [14] 和尹等人。 [34]其中句子被映射到向量中进行处理。纳拉帕蒂等人。 [21] 以及 Cheng 和 Lapata [3] 使用 RNN(循环神经网络)来创建文档的表示。纳拉扬等人。 [23]采用句子分类器,利用标题和图像标题等附加信息来选择句子。安永等人。 [33]结合图卷积网络和 RNN 来计算每个句子的重要性。尽管一些提取摘要模型取得了良好的 ROUGE 分数,但它们通常存在可读性问题。
在最近的神经模型之前,抽象文档摘要尚未受到足够的关注。 Jing[15]首次通过删除句子中不重要的部分来创建摘要。抽象概括任务在 DUC-2003 和 2004 竞赛中被标准化。 TOPIARY [35] 是 DUC-2004 任务的一项成就;它使用各种语言驱动的压缩技术和检测算法,将从文档中提取的关键字附加到输出中。 Cheung 和 Penn [4] 使用依存树创建了句子融合。
Rush 等人提出了一种应用于抽象文本摘要的现代神经网络。 [25],其中卷积模型用于对输入文本进行编码。为了生成摘要,采用了注意力前馈神经网络。维尼亚尔斯等人。 [28]引入了指针网络,它是基于Bahdanau等人的软注意力分配方法的序列到序列模型。 [2]。指针网络还创建了语言建模、神经机器翻译 [11] 和摘要 [16]、[21] 的混合方法。拉什等人。 [25]是这项工作的扩展,它对编码器使用相同的卷积方法,但解码器被替换为RNN以实现改进的性能。胡等人。 [13]通过使用RNN进行文本摘要来展示中文数据集的良好性能。
对于源的提取文本摘要,Cheng 和 Lapata [3] 使用了基于 RNN 的编码器-解码器。 Nallapati 等人使用了序列到序列模型。 [21] 使用 CNN/DailyMail 数据集评估了这项工作。 Ranzato 等人用评估矩阵(例如 ROUGE 和 BLEU)取代了传统的训练矩阵。 [24]。管理 OOV 单词 请参阅等人。 [26] 和金等人。 [16]在他们想要的模型中采用了指针网络。为了减少摘要中重复的短语,See 等人提出了一种不同的模型。 [26]。亚达夫等人。 [7]使用带有注意层的强化学习作为基础模型。 Li 等人使用了生成对抗网络。 [17]通过人工评估获得高分。 Bahdanau等人提出了注意力机制。 [1]。对于文档分类,Yang 等人提出了分层注意机制。 [32]。
纳拉帕蒂等人。 [21]结合了单词和句子级别的注意力,其中句子注意力是动态的。自动特征工程在开发特征选择模型方面取得了很多进展,其中包括元学习[36]、[37]、[38],又名学习学习。它关注的是即使数据稀疏,如何学习和适应。
在这项研究中,我们提出了一种用于提取摘要和抽象摘要的端到端模型。编码后的单词具有丰富的特征,保留了每个单词的语言信息。单词的这些语言特征被馈送到提取器和抽象器。此外,该模型结合了来自提取模型的句子级摘要和来自抽象模型的单词级摘要。先前的研究者已经采用了不同注意力的概念,但对特征语言学的注意力尚未合并为统一模型。在具有丰富特征的单词编码的顺序模型中使用单词和句子级注意力的优点是一种全面总结的方法。

三.本文方法

3.1 总结为两阶段学习

3.1.1 基础系统

3.2 重构文本摘要

四 实验效果

4.1数据集

4.2 对比模型

4.3实施细节

4.4评估指标

4.5 实验结果

4.6 细粒度分析


五 总结

在本文中,我们提出了通过结合提取器和抽象器模型的优势来生成全面摘要的方法。包含单词语言信息的单词嵌入被馈送到提取器和抽象器模型的神经网络。合并的单词特征包括句子位置、数字数量、POS标签、NE标签、术语权重和专有名词数量。除此之外,注意力层分别通过使用句子和单词注意力参数来突出显示提取器和抽象器模型最重要的信息。所提出的方法结合了句子和单词的注意力权重,以便有效地计算损失函数。两阶段模型可以在单个网络中进行提取和抽象摘要。所提出的网络使用 CNN/DailyMail 数据集进行训练和测试。它是通过计算 ROUGE 分数以及人类受试者来评估的。结果表明,该方法优于现有技术,ROUGE 得分为 37.76%,具有较高的综合性和信息量。

思考

这篇关于NLP论文阅读记录 - WOS | 2022 使用语言特征空间的抽象文本摘要的神经注意模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/605915

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]