Towards Enriched Controllability for Educational Question Generation

本文主要是介绍Towards Enriched Controllability for Educational Question Generation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 题目
    • 摘要
    • 引言
    • 生成显式和隐式问题
    • 实验设置
    • 结果基线
    • 结论

题目

迈向教育问题生成的丰富可控性

在这里插入图片描述

论文地址:https://arxiv.org/abs/2306.14917

摘要

    问题生成 (QG) 是自然语言处理 (NLP) 中的一项任务,涉及根据输入自动生成问题,输入通常由文本和目标答案组成。QG 的最新研究旨在控制生成问题的类型,以满足教育需求。教育 QG 中可控性的一个显著例子是生成基于某些叙事元素的问题,例如因果关系、结果解决或预测。本研究旨在通过引入一种新的指导属性来丰富 QG 中的可控性:问题明确性。我们建议控制儿童友好故事中显性和隐性 (wh) 问题的生成。我们展示了通过问题明确性单独控制 QG 的初步证据,并同时使用另一个目标属性:问题的叙事元素。代码可在 github.com/bernardoleite/question-generation-control 上公开获取。

关键词:自然语言处理´问题生成´可控性´问题明确性。

引言

    在教育背景下,问题生成 (QG) 可以自动化并协助教师完成一项耗时费力的任务。通过自学和参与计算机生成的练习题,QG 还可以帮助学习者进行形成性评估。然而,自动 QG 工具在课堂上并没有得到广泛使用 [2,8],这是因为生成的问题通常类型和难度级别有限 [2]。正如 Wang 等人 [8] 所指出的,用户强烈希望控制,即人类为 QG 系统提供输入并决定何时使用他们的输出。受这种需求的启发,本研究提出了一个 QG 框架来控制显性和隐性问题的生成,在生成过程中使用问题的显性作为指导属性。一般来说,显性问题以特定的故事事实为中心,而隐性问题则依赖于总结和得出推论来自文本中的隐性信息。
    正如 Xu 等人 [9] 所述,显性和隐性问题的正式定义如下: – 显性问题要求在故事中直接找到答案。 换句话说,答案的来源是文本范围。 – 隐性问题要求在文本中无法直接找到答案。 回答问题需要重新表述语言或进行推断。换句话说,答案来源是“自由形式”,这意味着答案可以是任何自由文本,并且答案的来源没有限制。
值得注意的是,先前的研究 [6,11,9] 表明,显性和隐性问题的组合有助于评估中更加平衡的难度。

    为了实现我们的目标,我们使用了一个名为 FairytaleQA [9] 的最新数据集,其中包含来自儿童友好故事的问答 (QA) 对。 每个问题都由专家注释者归类为“显式”或“隐式”。 之前的一些研究已经解决了教育问答系统中的可控性问题。例如,Ghanem 等人 [1] 控制问题所需的阅读理解技能,例如,描述性语言和总结。同样,Zhao 等人 [10] 控制生成问题背后的叙述元素,例如因果关系、结果解决或预测。他们使用与本研究相同的数据集 FairytaleQA,其中每个问题除了显式性之外,还根据所引用的叙述元素进行分类。

生成显式和隐式问题

    在本研究中,我们使用可控机制对 T5 预训练模型 [5] 进行微调,以生成显式和隐式问题。T5 是一个文本到文本的生成模型,在包括问答和总结在内的多个自然语言生成基准上取得了最佳效果。我们训练模型来为特定的故事文本生成问题和答案。为了控制所生成问题的明确性,我们在输入的开头(故事文本之前)添加一个特殊标记 ,后跟explicit 或 implicit属性。此属性指导系统生成所需类型的问题。其他特殊标记(

、 和 )用于分隔模型的输入和输出信息。

    该技术基于最近的一项研究 [10],旨在控制以另一个目标属性为条件的 QG:问题的叙述元素。我们还研究同时控制问题的明确性和目标属性。为此,除了 之外,我们还在前面添加 ,后跟叙述属性名称。

实验设置

    数据:我们使用 FairytaleQA [9],其中教育专家从 278 个儿童友好故事中手动创建了 10,580 个 QA 对。每个问题都标注有明确性标签,可以是“明确”或“隐含”。此外,每个问题都标有以下叙述元素之一:人物、背景、动作、感觉、因果关系、结果解决或预测。从统计上讲,每个故事大约有15个部分,每个部分(由多个句子组成)大约有3个问题。显式问题约占所有问题的75%。我们使用由8,548/1,025/1,007个QA对组成的原始训练/验证/测试分割。

    模型:从原始数据集中,我们训练了不同的模型5:(A)问题部分:答案;(B)答案部分:问题;(C)部分:问题-答案;(D)前部分:问题-答案; (E) nar-section:question-answer;和 (F) nar-exsection:question-answer。模型 A 和 B 将作为与 FairytaleQA 论文中的 QA 和 QG 模型的基线比较。模型 C 仅包含部分文本作为输入,因此其目的是作为与包含控制属性的模型 D-F 进行比较的基线。模型 D 在输入中包含问题的明确性属性。模型 E 在输入中包含叙述属性。模型 F 包含两个控制属性。图 1 显示了具有可控性提示的模型的说明性示例。

    受控测试集:为了评估模型 D-F 可控性的有效性,我们从原始测试集准备了一个重组版本,我们称之为受控测试:每个示例包括一个部分和关于该部分的所有真实 QA 对,这些 QA 对属于一种明确性类型(显式或隐式)和叙述元素。此外,为了便于 C 模型和 D-F 模型之间的比较,每个部分仅出现一次。实施细节:我们使用 t5-base6 模型版本。我们分别将最大 token 输入和输出设置为 512 和 128。我们训练模型的最大周期为 10 个,耐心值为 2 的提前停止,批处理大小为 32。对于推理,我们使用波束宽度为 5 的波束搜索。
在这里插入图片描述

结果基线

    FairytaleQA 作者报告称,测试集上的 n-gram 相似度 ROUGELF1 [3] 值为 0.536(QA)和 0.527(QG)。使用我们的基线模型(A 和 B),我们分别获得了 0.559(QA)和 0.529(QG)。这表明我们的基线模型在定量上与之前获得的结果一致。按问题明确性划分的 QA 结果:更多关于 QA 基线模型 A,我们对明确和隐性问题的 ROUGEL-F1 QA 结果分别为 0.681 和 0.194。徐等人 [9] 也观察到了这种显著差异。根据作者的说法,这种情况是可以预料到的,因为明确问题的答案可以直接在文本中找到。相比之下,隐性问题需要深入的推理和总结。我们利用这一原理来评估问题明确性的可控性。我们假设,在设置 A 中获得的 QA 模型在由模型 D 和 F 生成的显性问题上的表现将明显优于隐性问题。

    可控性:我们通过采用 QA 和 QG 任务来寻找问题可控性的证据。对于 QA,我们使用 ROUGEL-F1 指标和 EXACT MATCH,这是两个字符串之间严格的全有或全无分数。对于 QG,我们使用 n-gram 相似度 ROUGEL-F1 和 BLEU-4 [4]。此外,我们使用 BLEURT [7],这是一个较新的文本生成性能指标。

    表 1 引用了 QA 结果,如下所示。我们使用 QA 模型(在设置 A 中获得)来回答由模型 D 和 F 生成的问题。然后,将从 QA 模型获得的答案与从模型 D 和 F 生成的答案进行比较,得出报告的结果。对于这两个评估指标,QA 模型在显式生成问题上的表现明显优于隐式生成问题(证实了我们的假设)。因此,我们得出结论,这些分数表明,使用所提出的可控机制可以控制问题的显性。

    表 2 列出了获得的 QG 结果。这里采用了 QG 中的传统评估程序,即直接将生成的问题与基本事实进行比较 7。我们发现模型 D 获得的 QG 分数与模型 C 获得的 QG 分数没有显著差异,这可以解释如下:控制问题的显性对回答生成问题所需的答案类型的影响大于对生成问题的语法的影响。

    因此,我们认为模型 C 和 D 在 QG 结果中没有显著差异是可以预料的。相比之下,与模型 C 相比,模型 E 和 F(接收叙事可控性提示)的改进更为显著。这可以解释如下:控制问题的叙事元素会强烈影响所生成问题的语法。例如,我们通过经验观察到,当要求模型生成有关“因果关系”元素的问题时,它会生成(在许多情况下)问题从“为什么……?”开始。对于“结果解决”,该模型生成“发生了什么……?”问题。对于“预测”,该模型生成“将如何……?”问题。最后,值得注意的是,模型 F(接收显性和叙述可控性提示)被证明可以有效地同时控制问题的显性和叙述元素。

结论

    在本研究中,我们致力于丰富教育 QG 的可控性。通过自动评估,结果显示初步证据表明,可以 (1) 控制问题的明确性和 (2) 同时控制问题的明确性和问题的叙述元素。我们认为,教育 QG 的下一步发展应该涉及通过多种指导和教育相关属性来丰富(甚至更多)可控性过程。寻找其他有效的控制机制也是一条有趣的途径。对于未来的工作,我们打算在实际教育环境中进行大规模的人工评估,重点关注 QG 的可控性。

这篇关于Towards Enriched Controllability for Educational Question Generation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1104031

相关文章

LLVM入门2:如何基于自己的代码生成IR-LLVM IR code generation实例介绍

概述 本节将通过一个简单的例子来介绍如何生成llvm IR,以Kaleidoscope IR中的例子为例,我们基于LLVM接口构建一个简单的编译器,实现简单的语句解析并转化为LLVM IR,生成对应的LLVM IR部分,代码如下,文件名为toy.cpp,先给出代码,后面会详细介绍每一步分代码: #include "llvm/ADT/APFloat.h"#include "llvm/ADT/S

Python安装llama库出错“metadata-generation-failed”

Python安装llama库出错“metadata-generation-failed” 1. 安装llama库时出错2. 定位问题1. 去官网下载llama包 2.修改配置文件2.1 解压文件2.2 修改配置文件 3. 本地安装文件 1. 安装llama库时出错 2. 定位问题 根据查到的资料,发现时llama包中的execfile函数已经被下线了,需要我们手动修改代码后

Show,Attend and Tell: Neural Image Caption Generation with Visual Attention

简单的翻译阅读了一下 Abstract 受机器翻译和对象检测领域最新工作的启发,我们引入了一种基于注意力的模型,该模型可以自动学习描述图像的内容。我们描述了如何使用标准的反向传播技术,以确定性的方式训练模型,并通过最大化变分下界随机地训练模型。我们还通过可视化展示了模型如何能够自动学习将注视固定在显着对象上,同时在输出序列中生成相应的单词。我们通过三个基准数据集(Flickr9k,Flickr

Leetcode Question 高频 和 分类

Leetcode Question Difficulty and Frequency 题目分类: Dynamic Programming Edit DistanceMaximum SubarrayMinimum Path SumUnique PathsUnique Paths IILongest Palindromic SubstringInterleaving StringT

VideoCrafter1:Open Diffusion models for high-quality video generation

https://zhuanlan.zhihu.com/p/677918122https://zhuanlan.zhihu.com/p/677918122 视频生成无论是文生视频,还是图生视频,图生视频这块普遍的操作还是将图片作为一个模态crossattention进unet进行去噪,这一步是需要训练的,svd除此之外,还将图片和noise做拼接,这一步,很多文生视频的方式通过通过这一步来扩展其成

解决Javadoc generation failed Generated Javadoc options file

上传至jcenter时报此错误,解决方法:在项目的build.gradle的最外层加入: tasks.getByPath(":(你想要禁止的module名称,如app):javadocRelease").enabled = false 如: tasks.getByPath(":app:javadocRelease").enabled = false sync项目,OK了。

A Tutorial on Near-Field XL-MIMO Communications Towards 6G【论文阅读笔记】

此系列是本人阅读论文过程中的简单笔记,比较随意且具有严重的偏向性(偏向自己研究方向和感兴趣的),随缘分享,共同进步~ 论文主要内容: 建立XL-MIMO模型,考虑NUSW信道和非平稳性; 基于近场信道模型,分析性能(SNR scaling laws,波束聚焦、速率、DoF) XL-MIMO设计问题:信道估计、波束码本、波束训练、DAM XL-MIMO信道特性变化: UPW ➡ NU

SAM 2: The next generation of Meta Segment Anything Model for videos and images

https://ai.meta.com/blog/segment-anything-2/  https://github.com/facebookresearch/segment-anything-2  https://zhuanlan.zhihu.com/p/712068482

深度学习-生成模型:Generation(Tranform Vector To Object with RNN)【PixelRNN、VAE(变分自编码器)、GAN(生成对抗网络)】

深度学习-生成模型:Generation(Tranform Vector To Object with RNN)【PixelRNN、VAE(变分自编码器)、GAN(生成对抗网络)】 一、Generator的分类二、Native Generator (AutoEncoder's Decoder)三、PixelRNN1、生成句子序列2、生成图片3、生成音频:WaveNet4、生成视频:Video

Question mutiple pdf‘s using openai, pinecone, langchain

题意:使用 OpenAI、Pinecone 和 LangChain 对多个 PDF 文件进行提问。 问题背景: I am trying to ask questions against a multiple pdf using pinecone and openAI but I dont know how to. 我正在尝试使用 Pinecone 和 OpenAI 对多个 PDF 文