-
公开(公告)号:CN115526745A
公开(公告)日:2022-12-27
申请号:CN202210503495.4
申请日:2022-05-09
Applicant: 桂林电子科技大学
Abstract: 本发明公开了一种基于Transformer深度知识追踪模型,其主要包括:首先,对学生数据进行筛选,并将筛选后的数据标签分组作为输入模型的长序列数据;其次,对学生交互数据进行卷积处理,减少模型因异常点带来的影响;接下来,通过交互序列中的时间信息,计算下一次交互的遗忘因子,并将其添加到模型的注意力矩阵中,对学生遗忘行为进行建模;然后,使用自注意力模型Transformer把学生长序列交互数据分别作为编码器和解码器的输入,对学习过程建模;最后,将解码器的输出经过一个Sigmoid激活的预测层,得到最终的预测结果。本发明致力于解决循环神经网络在应用于知识追踪领域中存在的可解释性问题以及长期依赖问题,并可以进一步提高知识追踪模型的性能。