Exercise-enhanced sequential modeling for student performance prediction

本文主要是介绍Exercise-enhanced sequential modeling for student performance prediction,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

写在前面

本篇区别于前面阅读的文献。普通的模型输入只有习题的信息,本文模型输入另外加入了习题文本描述信息。

1 摘要

在在线教育系统中,为了向学生提供主动服务(例如个性化习题推荐),一个关键的需求是预测学生在未来运动活动中的表现(例如分数)。现有的预测方法主要是利用学生的历史习题记录,其中每个习题通常表示为人工标注的知识概念,习题文本描述中包含的更丰富的信息仍有待开发。在本文中,我们提出了一种新颖的习题增强循环神经网络 (EERNN) 框架,通过充分利用学生的做题记录和每个习题的文本来预测学生的表现。具体来说,为了对学生的习题过程进行建模,我们首先设计了一个双向 LSTM,以从文本描述中学习每个习题表示,而不会丢失任何专业知识和信息。然后,我们提出了一种新的 LSTM 架构,通过结合习题表示来跟踪学生在顺序习题过程中的状态(即知识状态)。为了做出最终预测,我们在 EERNN 下设计了两种策略,即具有马尔可夫属性的 EERNNM 和具有注意力机制的EERNNA。对大规模真实世界数据的广泛实验清楚地证明了 EERNN 框架的有效性。此外,通过结合习题相关性,EERNN 可以从学生和习题的角度很好地处理冷启动问题。

2 引言

在现状的教育体系中,学生可以在做题过程中得到适当的指导,个性化获取知识。图 1 显示了一个典型学生的此类过程的示例。通常,当发布习题(例如,e1)时,学生会阅读其文本并应用知识来回答它。在此过程中,学生 s1 总共做了四次习题。为了给学生提供可以自主学习的环境,例如,学习补救建议和个性化习题建议,一个关键的需求是预测他们的表现(例如,分数),即预测学生是否能够正确回答习题(例如,e5)。

在这里插入图片描述

在文献中,从教育心理学和数据挖掘领域预测学生表现有很多努力,例如认知诊断、知识追踪、矩阵分解和深度学习。通常,大多数方法都致力于对学生做题记录进行建模以进行预测。但是,它们只是将每个习题表示为知识概念,例如,图 1 中的习题 e1 表示为概念“功能”。这些特定于知识的概念通常由实践中的专家(例如教师)标记。同时,这些人工表示无法区分习题的个体特征(例如难度),从而导致服务器信息丢失,例如习题 e1 和 e3 因文本而异(e3 比e1) 尽管它们都标有“Function”。为此,在本文中,我们认为将学生的习题记录和每个习题的文本结合起来是有益的,这样可以更准确地预测学生的表现。

目前方法存在的问题:首先,缺乏统一的习题表示方式。其次,追踪长期的知识状态。最后,冷启动问题

3 EERNN 框架

3.1 问题定义及方法概述

在在线教育系统中,有 S 代表学生和 E 代表做的习题。将每个学生的做题记录为 s i = { ( e 1 i , r 1 i ) , ( e 2 i , e 2 i ) , … , ( e T i , r T i ) } s_i=\{(e_1^i,r_1^i),(e_2^i,e_2^i),\dots ,(e_T^i,r_T^i)\} si={(e1i,r1i),(e2i,e2i),,(eTi,rTi)},其中 e j i e_j^i eji 表示学生 i 解决的第 j 个习题, r j i r_j^i rji 表示相应的分数。一般情况下,如果学生 i 对习题 j 的回答正确, r j i r_j^i rji等于 1,否则等于 0。除了学生习题过程的日志外,我们还给出了习题的文字说明。形式上,每个习题 e i e_i ei与一个单词序列组合为 e i = { w 1 i , w 2 i , … , w M i } e_i=\{w_1^i,w_2^i,\dots ,w_M^i\} ei={w1i,w2i,,wMi}。为简单起见,我们使用 s = { ( e 1 , r 1 ) , ( e 2 , r 2 ) , … , ( e T , r T ) } s=\{(e_1,r_1),(e_2,r_2),\dots,(e_T,r_T)\} s={(e1,r1),(e2,r2),,(eT,rT)} e = { w 1 , w 2 , … , w M } e=\{w_1,w_2,\dots ,w_M\} e={w1,w2,,wM}分别表示每个学生进程 s i s_i si 和每个习题文本 e i e_i ei

给定每个学生的做题日志和从 1 到 T 的每个习题的文本描述,目标是训练一个统一的模型 M,该模型可用于预测下一个习题 e t + 1 e_{t+1} et+1的分数 r ~ T + 1 \tilde{r}_{T+1} r~T+1

图 2 显示了我们研究的解决方案概述。在训练阶段,通过建模所有学生的做题记录和习题文本信息训练模型EERNN。之后,EERNN 可以根据每个学生的个人序列习题记录来预测每个学生在未来习题中的表现。

具体来说,EERNN 是一个通用框架,我们可以在其中根据不同的策略预测学生的表现。如图 3 所示,我们在 EERNN 下提出了两种实现,即具有马尔可夫属性的 EERNNM 和具有注意机制的 EERNNA。两种模型具有相同的模拟学生习题记录的过程,但遵循不同的预测策略

3.2 EERNN的建模过程

EERNN 框架中建模过程的目标是用输入 s 对每个学生的习题序列进行建模。从图 3 可以看出,该过程包含两个主要组件,即习题嵌入和学生嵌入。

3.2.1 习题嵌入(Exercise Embedding)

如图 3 所示,给定学生习题过程 s = { ( e 1 , r 1 ) , ( e 2 , r 2 ) , … , ( e T , r T ) } s=\{(e_1,r_1),(e_2,r_2),\dots,(e_T,r_T)\} s={(e1,r1),(e2,r2),,(eT,rT)},习题嵌入 自动从其文本输入 e i e_i ei 中学习每个习题 x i x_i xi 的语义表示。

图 4 显示了习题嵌入的详细技术。具体来说,给定习题的文本描述,其中包含 M 个单词序列 e = { w 1 , w 2 , … , w M } e=\{w_1,w_2,\dots ,w_M\} e={w1,w2,,wM},我们首先取 Word2vec 将习题 e i e_i ei中的每个单词 w i w_i wi 转换为 d 0 d_0 d0 维预训练的词嵌入向量。初始化之后,习题嵌入使用先前隐藏状态 v m − 1 v_{m-1} vm1 更新 w m w_m wm在第 m 个单词步骤的隐藏状态 v m ∈ R d v v_m\in \mathbb{R}^{d_v} vmRdv

其中 i m , f m , o m i_m,f_m,o_m im,fm,om分别代表三个门,即输入、遗忘、输出。 c m c_m cm是一个单元记忆向量。 σ(x) 是非线性 sigmoid 激活函数, · 表示向量之间的元素乘积。此外,输入加权矩阵 Z w ∗ E ∈ R d v × d v Z_{w*}^E\in \mathbb{R}^{d_v\times d_v} ZwERdv×dv、循环加权矩阵 Z v ∗ E ∈ R d v × d o Z_{v*}^E\in \mathbb{R}^{d_v\times d_o} ZvERdv×do 和偏置加权向量 b ∗ E ∈ R d v b_{*}^E\in \mathbb{R}^{d_v} bERdv都是习题嵌入中的网络参数。

为了充分利用习题的上下文单词信息,我们构建了一个双向 LSTM,分别取正向和反向的单词序列。如图 4 所示,在每个词步 m 处,隐藏词状态 v → m \overrightarrow{v}_m v m 是基于先前隐藏状态 v → m − 1 \overrightarrow{v}_{m-1} v m1 和当前词 w m w_m wm 前向传播计算的;而反向传播用未来隐藏状态 v ← m + 1 \overleftarrow{v}_{m+1} v m+1 和当前的词 w m w_m wm更新隐藏词状态 v ← m \overleftarrow{v}_m v m。因此,每个单词隐藏表示 v m v_m vm 可以通过前向状态和后向状态的连接计算 v m = c o n c a t e n a t e ( ( v → m , v m ← ) v_m=concatenate((\overrightarrow{v}_m,\overleftarrow{v_m}) vm=concatenate((v m,vm )

之后,为了获得习题 ei 的整个语义表示,我们利用 逐元素最大池化( element-wise max pooling) 操作将 M 个单词上下文表示合并到一个全局嵌入 x i ∈ R 2 d v x_i\in \mathbb{R}^{2d_v} xiR2dv中,即 x i = m a x ( v 1 , v 2 , … , v M ) x_i=max(v_1,v_2,\dots,v_M) xi=max(v1,v2,,vM) .

3.2.2 学生嵌入(Student Embedding)

学生嵌入在通过习题嵌入 从其文本 e i e_i ei中获得每个习题表示 x i x_i xi后,旨在对整个学生习题过程进行建模,并结合学生在不同习题步骤中的表现影响学习,我们称之为学生状态。如图 3 所示,EERNN 框架依赖于两个基本假设:(1)学生状态受习题和她获得的相应分数的影响。(2) 学生在长期的连续习题过程中有可能学习也有可能遗忘。

顺着这个思路,我们利用 LSTM 网络的变体进行学生嵌入,每个特定学生习题过程的输入 s = { ( x 1 , r 1 ) , ( x 2 , r 2 ) , … , ( x T , r T ) } s=\{(x_1,r_1),(x_2,r_2),\dots ,(x_T,r_T)\} s={(x1,r1),(x2,r2),,(xT,rT)}

具体来说,在每个习题步骤 t 中,网络的输入是结合了习题嵌入 x t x_t xt 和相应分数 r t r_t rt 的编码。由于答对得分(即 1)和错误得分(即 0)的习题在习题过程中对学生状态的影响不同,因此我们需要找到一种适当的方法来区分这些对特定学生的不同影响。

我们首先将分值 r t r_t rt 扩展到具有相同 2 d v 2d_v 2dv维度的习题嵌入 x t x_t xt 的特征向量 0 = (0, 0, . . . , 0),然后学习组合输入向量 x t ~ ∈ R 4 d v \tilde{x_t}\in \mathbb{R}^{4d_v} xt~R4dv
x t ~ = { [ x t ⨁ 0 ] if  r t = 1 , [ 0 ⨁ x t ] if  r t = 0 , (2) \tilde{x_t}= \begin{cases} [x_t\bigoplus 0] &\text{if } r_t=1,\\ [0\bigoplus x_t] &\text{if } r_t=0, \tag{2} \end{cases} xt~={[xt0][0xt]if rt=1,if rt=0,(2)
其中⊕是连接两个向量的操作。

结合学生 s = { x 1 ~ , x 2 ~ , … , x T ~ } s=\{\tilde{x_1},\tilde{x_2},\dots ,\tilde{x_T}\} s={x1~,x2~,,xT~},在她的习题步骤 t 中隐藏学生状态 h t ∈ R d h h_t\in \mathbb{R}^{d_h} htRdh基于当前组合输入 x t ~ \tilde{x_t} xt~ 和之前的学生状态 h t − 1 h_{t-1} ht1按照公式(1)进行更新。

其中 Z X ~ ∗ S ∈ R d h × 4 d v Z_{\widetilde{X}*}^S\in \mathbb{R}^{d_h\times 4d_v} ZX SRdh×4dv Z h ∗ S ∈ R d h × d h Z_{h*}^S\in \mathbb{R}^{d_h\times d_h} ZhSRdh×dh b ∗ S ∈ R d h b_*^S\in \mathbb{R}^{d_h} bSRdh是学生嵌入的的参数。

3.3 EERNN的预测输出

心理学发现,学生的答题情况表现取决于学生的知识掌握状态和习题本身特征。据这一发现,在 EERNN 框架下提出了两种预测策略的实现,即一个简单而有效的具有马尔可夫属性的 EERNNM 和一个更复杂的具有注意力机制的 EERNNA,

3.3.1 基于马尔可夫策略的EERNNM

对于典型的顺序预测任务,马尔可夫方法是一个很好理解和广泛使用的理论,它假设下一个状态仅取决于当前状态,而不取决于它之前的序列。基于此理论,当题目在 T + 1 T+1 T+1时刻发布给学生时,EERNNM流程是:(1) 假设学生应用当前状态 h t h_t ht 来解决习题; (2) 利用习题嵌入从习题文本 e T + 1 e_{T+1} eT+1中提取语义表示 x T + 1 x_{T+1} xT+1; (3) 预测她在运动 e T + 1 e_{T+1} eT+1上的表现 r ~ T + 1 \tilde{r}_{T+1} r~T+1,公式如下为:
y T + 1 = R e L U ( W 1 ⋅ [ h T ⊕ x T + 1 ] + b 1 ) r ~ T + 1 = σ ( W 2 ⋅ y T + 1 + b 2 ) (4) y_{T+1}=ReLU(W_1\cdot [h_T\oplus x_{T+1}]+b_1)\\ \tilde{r}_{T+1}=\sigma(W_2\cdot y_{T+1}+b_2) \tag{4} yT+1=ReLU(W1[hTxT+1]+b1)r~T+1=σ(W2yT+1+b2)(4)
其中 y T + 1 ∈ R d y y_{T+1}\in \mathbb{R}^{d_y} yT+1Rdy表示在T+1时刻由习题嵌入 x T + 1 x_{T+1} xT+1和学生知识状态 h T h_T hT的进行预测的总体表示, r ~ T + 1 \tilde{r}_{T+1} r~T+1是最后的预测输出结果。

由于当前的学生状态 h T h_T hT是 学生嵌入 中基于 LSTM 的架构的最后一个隐藏状态,因此当序列较长时它可能会丢弃一些重要信息,存在(梯度)消失问题。故提出了更为复杂的预测策略,即带有注意力机制的 EERNNA,以增强重要学生状态在预测的序列习题过程中的影响。

3.3.2 基于注意力机制的EERNNA

在图 1 中,学生可能在相似的习题中得到相似的分数,例如学生 s1 正确回答了习题 e1 和 e3,这可能是因为两个习题相似,因为背后的知识概念“function”相同。

根据这一观察,如图 3(b) 中的红线所示,EERNNA 假定学生的知识状态T+1时刻是基于过于学生历史状态进行聚合后的加权和,并且认为习题 e T + 1 e_{T+1} eT+1和历史习题是有一定关联的。将注意力集中的学生状态向量 h a t t h_{att} hatt定义为:
h a t t = ∑ j = 1 T α j h j , α j = c o s ( x T + 1 , x j ) h_{att}=\sum_{j=1}^{T}\alpha_{j}h_j, \alpha_j=cos(x_{T+1},x_j) hatt=j=1Tαjhj,αj=cos(xT+1,xj)
其中 x j x_j xj是第 j 个习题步骤的习题嵌入, h j h_j hj是相应的学生状态。余弦相似度 α j \alpha_j αj 是注意力分数,用于衡量习题 e j e_j ej 对于新习题 e T + 1 e_{T+1} eT+1 在历史中重要性

在步骤 T + 1 获得带有注意力的学生状态后,EERNNA 使用公式(4)中的类似操作预测她在习题 e T + 1 e_{T+1} eT+1上的表现。 (4) 通过将 hT 替换为 h a t t h_{att} hatt

特别是通过习题嵌入,我们的注意力分数 αj 不仅从句法角度衡量习题之间的相似性,而且从语义角度捕捉相关性(例如难度相关性),有利于学生状态表示用于预测和模型解释。我们将对它们进行实验分析。

4 实验

在本节中,我们进行了广泛的实验,从各个方面证明 EERNN 的有效性:(1)EERNN 在未来和冷启动场景中针对基线的预测性能; (2) EERNN 中的注意力有效性; (3) 有意义的可视化。

4.1 数据集及实验设置

数据集:

科大讯飞提供的实验数据集,采集自应用广泛的在线学习系统智学1,该系统为高中生提供了大量的做题记录。

实验设置:

详细细节看文献吧,没有实验代码,就不详细写了。

4.2 实验结果

我们对数据集进行分区以比较所有模型对学生表现预测的结果。对于每个学生的连续习题记录,我们将开始的 60%、70%、80%、90% 的习题作为训练集,其余作为测试集。我们将所有实验重复 5 次,并使用所有指标报告平均结果,如图 5 所示。

冷启动预测

我们进行实验以从习题的角度评估 EERNN 在冷启动情况下的性能。在这里,我们只测试模型的预测结果,分别使用所有指标,在相应测试集中的新习题(从未出现在训练中)上训练 60%、70%、80%、90% 的训练集.请注意,我们不改变任何训练过程,只选择冷启动习题进行测试,因此所有测试都不需要重新训练。为了更好地说明,我们报告了所有 5 个基于深度学习的模型的结果。

如图 6 所示,也有与图 5 类似的实验观察结果,再次证明了 EERNN 框架的有效性。这些结果表明了 EERNN 框架的优越性,即在预测学生新习题的表现时,它可以很好地处理冷启动问题。

注意力机制的效果

如第 3 节所述,我们认为具有 Attention 机制的 EERNNA 可以在学生习题过程中跟踪学生的专注状态以提高预测性能,这优于 EERNNM。为了突出注意力效应,我们使用 ACC 和 AUC 指标比较了 EERNNA 和 EERNNM(在 90% 的训练集上训练)在所有学生的不同拟合长度的相应测试集中进行预测。

在这里插入图片描述

从图7可以看到,当拟合长度少于40时两种策略的结果基本一样。然而,随着序列长度的增加,EERNNA 的性能逐渐提高。此外,当它超过 60 时,EERNNA 在两个指标上都显着优于 EERNNM。这一现象表明 EERNNM 对学生运动过程开始时的预测是有效的,但在序列较长时会丢弃一些重要信息。相比之下,EERNNA 通过注意力机制增强了本地学生状态,有利于预测。此外,请注意,在预测没有任何记录的学生的第一次表现的情况下(拟合长度为 0 )。这一发现也表明,从学生的角度来看,EERNN 在解决冷启动问题时可以保证一定的效果。

可视化

特别是,EERNNA 通过注意力机制(即方程中的注意力分数 α)对每个学生的预测结果进行解释和分析的能力很大。 (5)。图 8 以实验中一名学生的注意力分数为例。在这里,EERNNA 预测学生可以正确回答习题 e20,因为她甚至在过去更难的类似习题 e4 上也得到了正确答案。从他们的课文中,我们可以得出结论,e20和e4都是“几何”习题,e4比e20更难。这种可视化暗示了 EERNNA 为结果分析和模型解释提供了一种很好的方式,这在教育应用中也很有意义。

图8:学生 EERNNA 中的注意力可视化。我们根据她过去的 19 次习题记录来预测她在 e20 上的表现(为了更好地说明,我们只展示了前 5 次习题)。右栏显示基于 e20 的所有习题的注意力得分。

这篇关于Exercise-enhanced sequential modeling for student performance prediction的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/677873

相关文章

论文浅读之Mamba: Linear-Time Sequence Modeling with Selective State Spaces

介绍 这篇论文提出了一种新型的"选择性状态空间模型"(Selective State Space Model, S6)来解决之前结构化状态空间模型(SSM)在离散且信息密集的数据(如文本)上效果较差的问题。 Mamba 在语言处理、基因组学和音频分析等领域的应用中表现出色。其创新的模型采用了线性时间序列建模架构,结合了选择性状态空间,能够在语言、音频和基因组学等不同模式中提供卓越的性能。这种突破

Polyp-DDPM: Diffusion-Based Semantic Polyp Synthesis for Enhanced Segmentation

Polyp- ddpm:基于扩散的语义Polyp合成增强分割 摘要: 本研究介绍了一种基于扩散的方法Polyp-DDPM,该方法用于生成假面条件下息肉的逼真图像,旨在增强胃肠道息肉的分割。我们的方法解决了与医学图像相关的数据限制、高注释成本和隐私问题的挑战。通过对分割掩模(代表异常区域的二进制掩模)的扩散模型进行调节,poly - ddpm在图像质量(实现fr起始距离(FID)得分为78.47

performance_schema.events_statements_current

performance_schema.events_statements_current 是 MySQL 中 performance_schema 库中的一个表,它用于显示当前正在执行的 SQL 语句的性能事件。这个表提供了关于当前正在运行的 SQL 语句的实时信息,允许数据库管理员和开发者监控和分析 SQL 语句的性能。 以下是关于 performance_schema.events_stat

点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读

请点击上方“AI公园”,关注公众号 上次发的这篇文章,由于排版的问题,导致了部分手机无法正常显示公式,经过几个朋友提醒才发现,今天重新发布一次。 摘要:点击率预测在计算机广告中有着重要的作用。在这个应用中,二阶多项式映射和因子分解模型应用的非常广泛。最近,各种种类的因子分解机(FM),领域因子分解机(FFM)在各个点击率预测的竞赛中表现出了其他模型都好的效果。基于我们获胜的经验,本文我们建立了

推荐系统《Field-aware Factorization Machines for CTR Prediction》 论文精读

之前一篇文中说提到了FFM,那么我们今天就来看看FFM是个什么东西,它和FM又是什么关系。 摘要:点击率预测在计算机广告中有着重要的作用。在这个应用中,二阶多项式映射和因子分解模型应用的非常广泛。最近,各种种类的因子分解机(FM),领域因子分解机(FFM)在各个点击率预测的竞赛中表现出了其他模型都好的效果。基于我们获胜的经验,本文我们建立了对大型的稀疏数据集进行点击率预测的方法FFM。首先,我们

High Performance Design for HDFS with Byte-Addressability of NVM and RDMA——论文泛读

ICS 2016 Paper 分布式元数据论文阅读笔记整理 问题 非易失性存储器(NVM)提供字节寻址能力,具有类似DRAM的性能和持久性,提供了为数据密集型应用构建高通量存储系统的机会。HDFS(Hadoop分布式文件系统)是MapReduce、Spark和HBase的主要存储引擎。尽管HDFS最初是为商品硬件设计的,但它越来越多地被用于HPC(高性能计算)集群。HPC系统的性能要求使HDF

论文阅读笔记——StereoNet: Guided Hierarchical Renement for Real-Time Edge-Aware Depth Prediction

引言: 谷歌实时端到端双目系统深度学习网络 双目匹配可以得到环境中的三维深度信息,进而为机器人,无人车,VR等现实场景下的应用提供有力信息,在对安全验证比较高的人脸支付领域,三维人脸验证也正在逐渐取代安全性较低的二维人脸验证。近年来,深度学习双目系统匹配已经取得了很不错的进展,很多先进的网络性能已经超过传统方法。然而,深度学习双目系统匹配仍然在实用方面面临很多问题,其中一个问题便是无法做到推断

C#中[StructLayout(LayoutKind.Sequential, Pack = 1)]解释

在C#中,[StructLayout(LayoutKind.Sequential, Pack = 1)]属性用于控制结构体或类的字段在内存中的布局。让我们分解一下这个属性的每个部分意味着什么: StructLayout: 这个属性指定结构体或类字段在内存中的排列方式。LayoutKind.Sequential表示字段应该按照它们在源代码中声明的顺序顺序排列。 Pack: 这指定字段在内存中的

Student Attendance Record I问题及解法

问题描述: You are given a string representing an attendance record for a student. The record only contains the following three characters: 'A' : Absent.'L' : Late.'P' : Present. A student could be re

【PAT】【Advanced Level】1039. Course List for Student (25)

1039. Course List for Student (25) 时间限制 200 ms 内存限制 65536 kB 代码长度限制 16000 B 判题程序 Standard 作者 CHEN, Yue Zhejiang University has 40000 students and provides 2500 courses