nature computational science | 从自然发生的数据中自动发现控制技能习得的符号规律

文摘   2024-09-25 20:16   北京  
最近不少道友后台反馈说收不到公众号的推文,我查了相关规则发现,微信公众号发布了新规则,只有点亮小星星才能第一时间收到文章推送,步骤如下:

点击上方蓝字关注我吧!

自动发现符号法则,指导从自然数据中获得技能的学习

Automated discovery of symbolic laws governing skill acquisition from naturally occurring data

torch code: https://github.com/ccnu-mathits/ADM

摘要

技能获取是认知心理学的一个关键研究领域,因为它涵盖了多个心理过程。在实验范式下发现的法则存在争议,且缺乏普遍适用性。本文旨在从大规模训练日志数据中挖掘技能学习法则。为解决不可观察的认知状态和搜索中的算法爆炸问题,开发了一种两阶段算法。最初使用深度学习模型确定学习者的认知状态并评估特征重要性。随后,采用符号回归算法将神经网络模型解析为代数方程。实验结果表明,该算法能够在连续反馈环境中准确恢复设定法则的噪声范围。当应用于Lumosity训练数据时,该方法在适应性方面优于传统和近期模型。研究揭示了两种新的技能获取法则,并重申了一些先前的发现。

图 1 | 整体模型架构图

该图展示了一个用于自动发现支配技能获得的符号法则的两阶段模型。

a. 训练日志数据示例,展示了特定学习者的九个练习会话的相关信息,每条记录包含五个主要元素:学习者、练习、技能、分数和时间。

b. 构建的深度回归器的示意图,包含三个主要模块:特征编码、掌握推断和分数预测。该模型以前 n 次练习会话的输出为输入,预测下一次的分数。所提模型遵循自回归范式来建立模型的优化目标。

c. 从训练好的深度回归器中提取符号支配法则的过程描述。首先,我们提出符号蒸馏方法,将黑箱神经网络模型表示为最接近的符号表示。其次,对于已训练的深度回归器,模型已将数据中的隐含模式嵌入。符号蒸馏方法用于解释深度回归器的各个模块,并将它们融合以获得符号支配法则。


1  引言

技能获取理论解释了个体如何通过练习和经验发展技能,强调了获取、细化和自动化技能的过程。该理论中的一个关键概念是有意练习,即集中精力提高特定性能领域的努力。这一理论对体育、音乐、教育和编程等领域产生了重大影响,为不同领域有效的技能获取和提升提供了宝贵的见解。

技能获取是一个复杂的心理过程,涉及练习、记忆和技能迁移。研究人员使用符号表示方法,如代数方程,来描述实验现象、识别模式,并基于观察到的实验模式建立认知理论模型,例如实例理论,以解释实践的幂律,认为技能提升源于在练习重复过程中积累和细化相关实例。同样,还有多阶段理论和并行分布处理模型,以及认知架构如SOAR和ACT-R等。符号模式对于发展认知理论至关重要,但其复杂性和争议性突显了需要进一步研究以理解人类行为。

传统心理学研究通常从控制实验中推导符号规则,由于不同的视角,导致得出不同的结论。例如,许多研究者最初认为实践法则遵循幂律,但一些研究建议在数据拟合方面存在更好的符号表示,例如指数或APEX函数。此外,实验设计中的偏见和局限性可能阻碍结果的复制和推广。Jenkins及其同事的四面体模型强调在记忆实验中考虑主体、编码活动、事件和检索条件,表明控制实验的发现可能仅适用于特定条件。因此,需要进一步研究以评估发现的稳健性和在不同背景下的普遍适用性。

练习次数与技能掌握之间的关系函数如下:这里, 分别表示学习者练习技能 1 和技能 2 的次数; 表示练习率参数; 是互惠因子; 表示遗忘率。在模拟中,我们仅对技能 1 建立互惠关系,意味着练习技能 2 有助于掌握技能 1。因此,考虑互惠关系的技能 1 的练习次数定义为:


心理学家转向使用自然发生数据集分析人类行为模式,以克服传统心理学研究中的挑战。这种方法称为大数据范式,通过从大型现实世界数据集中提取心理模式来补充实验室实验。尽管缺乏实验控制,自然发生数据集允许对因素进行统计分离,并揭示过去研究中未普遍调查的新模式。来自现实环境的实证数据的使用增强了结论的适用性,而数据的大规模性则导致更为稳健的发现。在线培训系统的出现为学习者提供了通过练习会话提高技能的机会,生成了与技能获取相关的大量训练日志数据,为利用大数据范式发展理论和模型提供了机会。

符号回归是一种机器学习技术,旨在通过组合运算、函数和变量找到最适合数据集的数学表达式。它对揭示数据模式和激发进一步研究具有重要价值。作为一种基于搜索的算法,符号回归通常在搜索空间内提供最佳结果,使其适合识别技能获取模式以及在行为科学中的应用。尽管符号回归在物理、化学和材料科学中得到了广泛应用,但训练日志数据的复杂性(包括规模、维度和潜在状态)给符号回归算法的直接应用带来了挑战。传统算法,如遗传算法,因解空间随变量和运算符呈指数增长而难以找到最佳符号模型。自然发生数据集中影响技能获取的许多未控制变量和因素阻碍了符号模型的直接优化。此外,学习者的技能掌握状态不可观察,这为当前的数据分析算法从训练日志数据中发现与技能获取相关的符号规则带来了障碍。

深度学习模型或深度神经网络因其能够使用反向传播算法有效分析高维数据而在机器学习中变得流行。这些模型在捕捉复杂数据模式方面表现出色,使得能够准确估计学习者的技能掌握程度;然而,它们的黑箱特性使人们难以解释拟合数据模式背后的决策过程。

本文提出了一种方法,通过大量训练日志数据自动发现技能获取中的隐含模式。提出了一种两阶段模型,将深度学习和符号回归算法结合,以揭示技能获取的基本原理。该方法通过从复杂的训练日志中提取关键模式并将其呈现为代数方程,确保准确拟合和可解释性,从而增强理解。

该两阶段模型的第一阶段专注于开发深度学习回归模型,以准确拟合大规模在线训练日志数据。该回归模型旨在估计关键潜变量,如行为特征编码和用户技能水平,并精确拟合关键映射函数。受到成功的变换器模型启发,我们设计了一个类似变换器的模型。它首先使用静态行为特征评估每个技能训练中行为的重要性,并生成编码的顺序行为特征;然后,非线性神经网络模型基于这些编码特征计算用户的技能掌握状态。最后,使用三参数项目反应理论模型将技能水平与训练得分关联,形成一个成熟的认知诊断模型。该模型采用自回归方法进行训练,基于历史训练序列预测未来训练结果,从而全面探讨用户在训练过程中的行为模式。

在研究的第二阶段,使用符号回归从训练好的深度学习回归模型中提取核心模式,并转化为代数方程,从而得到符号规则。开发了符号蒸馏技术,以通过从大型训练数据集中创建一个较小的模式提取数据集,从神经网络中提取这些模式。通过将其与基于梯度的神经网络特征重要性估计算法结合,选择了关键特征,从而减少了符号回归的解空间。通过最小化符号模型与训练神经网络之间的预测误差,优化了符号模型。最后,在深度学习模型拟合后,符号蒸馏技术被应用于行为重要性估计和掌握估计网络。最终,符号规则被整合以导出技能获取规则。

图 2 | 模拟数据实验结果。a–c 为模型在模拟数据上的实验结果。我们详细分析了深度学习拟合器在不同参数设置下的拟合程度(a),在不同参数设置下正则化项的数值分析(b),以及再现治理法则的准确度分析(c)。特征、结构和数值被引入为评估公式恢复程度的三个维度。特征衡量恢复公式中的变量是否与假设公式中的变量匹配;结构指示恢复公式的形式和结构是否与假设公式一致;数值表示公式中的参数是否与假设公式中的参数匹配。一般来说,如果特征、结构和数值都正确恢复,则该公式可以被视为完全恢复且准确。“是”表示算法成功恢复了预定模式,而“否”则表示恢复失败。


至此,我们已概述了该方法的基本原理和一般过程。有关模型的详细描述,请参见方法部分的“训练日志数据的深度学习回归”和“从深度学习回归模型中提取符号法则”。在接下来的部分中,我们通过对模拟数据的实验确认该方法的有效性和可行性。随后,我们将该方法应用于Lumosity数据集进行大规模技能训练,以揭示数据中的隐含模式和规律。

2  方法

深度学习回归用于训练日志数据

问题定义:训练日志数据包含用户(如 )、练习(如 )和技能集(如 )等重要信息。用户的训练历史表示为 ,其中 表示用户, 的第 个练习,且 。这个序列 是通过按时间排序的用户训练历史得到的。对应的成绩通常被标准化,并表示为 ,其中 是用户 的第 个练习的成绩,且 。表示练习与技能之间关系的索引矩阵通常称为 Q 矩阵,其中 。为了简化我们的符号系统,我们将 表示为练习 的技能索引,技能索引通过对技能进行独热编码来表示,其中

练习分数通常反映用户的技能掌握水平,探索这些分数的演变可以揭示知识获取的变化。通过将这些分数与练习行为关联,可以确定学习者的技能获取模式。观察大量学习者的技能获取模式可能揭示涉及心理活动的基本规律,例如练习、遗忘和技能迁移。引入了一种自回归自我监督的范式来捕获数据的核心模式。其主要目标是构建一个函数 ,该函数预测任何训练行为 的分数,即 。如果 能够准确预测相应的分数,则认为 中存在有关技能获取的核心模式或规则。我们设计了一种深度学习模型来构建 ,该模型受到变压器架构的启发。整个分数预测过程分为三个主要阶段:特征编码、技能掌握推断和预测。

特征编码

特征编码模块的核心任务是提取历史练习序列的特征。我们的方法涉及对每个训练行为的静态特征进行表征,建立模型以预测每次练习对相应技能学习的贡献水平,给静态特征序列加权,从而获得练习行为序列的特征编码。我们的研究从用户属性、练习特征和调度信息三个维度发展用户的练习行为。用户属性通常包括年龄、职业和教育等个人信息,这些信息能提供关于动机、初始技能水平和学习速度的宝贵信息,进而影响技能学习。我们将用户 的用户属性表示为 。练习特征旨在传达练习与技能之间的相关性及练习中包含的刺激类型。我们用 表示练习 的特征。调度信息包括用户在练习过程中的详细信息,如计划学习某技能的练习次数和相邻练习之间的时间。我们用 表示用户 在练习 时的调度信息。特征通常有两种主要形式:连续型和离散型。对于离散特征,我们采用独热编码;对于连续变量,直接使用其连续值作为特征值。最终,用户练习行为的静态特征可以表示为:

其中 表示连接运算符。

由于不同的训练行为可能对技能学习产生不同的影响,我们使用神经网络来确定特定行为对技能获取的重要性。首先,由于静态特征的不同维度具有不同的取值范围,我们进行批量归一化,以规范化这些特征并加速模型训练,同时增强稳定性。其次,我们使用经典的多层感知机(MLP)对归一化特征建模,其中感知机根据技能的不同而变化,但对相同感知机共享参数。因此,对于与技能 相关的用户练习行为 ,其重要性可以量化为:

其中 是批量归一化, 表示 MLP 参数集。用户属性作为三种静态特征之一,是时间不变变量,不需要时间特征融合。由于调度信息本身包含时间信息,用户练习特征的时间编码成为序列编码的主要焦点。用户的练习序列 的编码练习特征可以表示为:

技能掌握推断

技能掌握推断的重点是构建一个映射函数(掌握推断器),将行为序列的编码特征映射到技能掌握水平,这是模型的核心组成部分。由于该函数的形式不明确,我们建议使用神经网络模型来拟合映射函数,并利用其强大的非线性拟合能力来准确估计技能掌握变量。此外,分数预测需要另一个映射函数,将技能掌握状态转换为最终分数。因此,我们将经典的认知诊断模型(IRT)作为映射函数。每个技能的掌握推断器是独立的。因此,我们设置了一组结构相同但参数不同的神经网络模型,以估计每个技能的掌握水平。当用户 练习 时,技能 的掌握水平可以表示为:

我们用 表示用户 每个技能的掌握水平,其中:

表示用户 在训练之前拥有的技能 的初始熟练程度。

分数预测

通常,用户在练习中的分数被认为与其技能掌握水平相关,这一点得到了许多学者的广泛研究,并发展了众多认知诊断模型。本文中,我们提出使用 IRT 模型作为分数预测函数。具体而言,我们引入一个三参数的 IRT 模型,建模用户的掌握情况、练习难度、区分度和猜测性,使我们能够更好地利用用户的掌握信息来估计练习分数。其具体形式可以表示为:

这里,, 分别表示练习 的区分度、难度和猜测性。 表示技能集中的练习索引,而 表示练习 的预测分数。

本文中使用的神经网络模型使用开源深度学习库 PyTorch 实现。

模型学习

在上一节中,我们将 表示为练习 的预测分数,该分数是通过对学习序列 的特征编码、转换和预测过程获得的。首先,由于分数预测是典型的回归任务,我们引入平均绝对误差(MAE)损失函数作为优化目标。与更常用的均方误差损失相比,MAE 在对离群值的抵抗力方面表现更佳。我们的主要目标是从数据中提取普遍适用且具有可推广性的知识。为了实现这一目标,我们努力减少异常或突出分数值对模型的影响。其次,我们计划采用自回归学习范式。因此,建立的损失函数需要在数据集中每个学习者的所有练习会话数据上计算和累积。

考虑到用户训练行为的重要性,如公式 (1) 所示,我们寻求引入约束以确保平滑性。平滑性约束用于限制重要性值在预定义范围内。如果模型能够在不损害精度的情况下将所有重要值约束为常数值,它可以降低模型的整体复杂性并缓解解释的难度。

整个模型的学习目标函数可以表示为:

上述目标函数包含两个主要组成部分。第一部分是保真度项,描述了预测数据与实际数据之间的差异;它由 MAE 损失表示。第二部分是正则化项,即对训练行为重要性的平滑性约束,限制在接近 1 的常数值附近。 项表示一个平衡因子,用于平衡保真度和约束项的重要性,而 项表示集合的基数。更具体地说, 表示数据集中训练记录的数量,其中 。由于整个模型是可微的,因此能够通过基于梯度的迭代优化算法(例如随机梯度下降和自适应动量估计(Adam))高效地学习参数。

符号法则提取

符号蒸馏

正式地,设 为待分析的神经网络模型, 为符号回归模型。符号蒸馏的核心思想是确保对任何输入 ,都有 。基于此,我们可以定义符号回归模型的优化目标如下:

其中, 表示符号回归模型学习到的代数方程, 表示采样的输入特征, 表示神经网络模型中的所有参数,训练后可视为常数。

在本研究中,我们使用来自训练数据的输入信息样本构建 。为了减少符号回归模型的计算成本,我们从整个数据集中采样输入样本以获得 ,其中 表示样本的采样大小,是手动设置的超参数; 表示神经网络输入信息的特征维度,即 的维度,如公式 (1) 和 (3) 所示。

由于我们研究的特征具有高维性,符号回归是典型的组合优化问题。当变量数量增加时,解空间呈指数增长,从而降低符号回归模型的效率和稳定性。作为一项探索性研究,我们的目标是识别核心模式和重要因素。因此,我们使用训练好的神经网络模型和基于梯度的特征重要性估计方法筛选特征,选择最重要的特征,并使用它们执行符号回归以识别关键模式。具体来说,训练好的神经网络模型和梯度特征重要性估计方法用于计算 个特征的重要性,其中选择最关键的 个特征组成输入特征 。这里 ,且

为了避免特征缩放对重要性估计的影响,我们将特征重要性估计限制在 BN 操作符的输出特征上。因此,符号回归的目标可表述为:

为避免错误对模型的过度影响,引入平均绝对误差作为符号回归模型的目标函数。遗传算法是解决符号回归模型的主要方法,符号回归库如 Eureqa、PySR 和 geppy 提供了额外的解决方案。本文使用的符号回归算法通过开源符号回归库 PySR 实现。

法则提取

本节描述如何通过符号蒸馏方法将训练好的深度回归器的预测过程转换为符号法则。我们将深度回归器每个模块中的神经网络模型表示为符号法则,并最终结合它们以获得整个深度回归器的符号表示。由于每项技能的注意力编码器和掌握推断器是独立的,因此可以并行对这些组件进行符号蒸馏。此外,由于注意力编码器和掌握推断器是耦合的并具有顺序关系,分析的扩展过程遵循类似的顺序。

首先,对于注意力编码器,通过符号分析公式 (1) 获得 的符号表示,然后与特征编码(公式 (2))合并以生成编码特征的符号表示,即 。如果模型包含对注意力值的平滑性约束,当平滑组件的值小于极小阈值(例如 )时,可以将 近似为 1,以减少分析方程的复杂性。

接下来,掌握推断器进行符号蒸馏,随后将符号表示与编码特征整合,重新组织以呈现最终的符号法则。

数据生成方法和模型参数设置

为紧密模拟真实的锻炼模式,考虑了三种常见的技能获得法则:幂律 ()、指数律 () 和线性法则 ()。同时,整合了互惠主义的概念——即锻炼对多项技能的正面影响,其中掌握技能 A 可以提高技能 B 的熟练度。此外,基于锻炼间隔引入了遗忘因子和熟练度衰退模型。建立了三组模拟技能掌握法则(详见表 1)。

为了生成全面的模拟训练日志数据,首先随机初始化参数模拟学习者和项目。随后,为每个学习者分配随机的练习序列。通过考虑锻炼过程和预设的学习模式,计算每个练习的技能掌握情况。IRT 模型与项目参数结合,用于计算每个练习的分数。在练习分数计算中引入高斯噪声(),以评估算法对噪声的鲁棒性并生成真实观察数据。

模拟训练日志数据生成可分为三个主要阶段:学习者和练习生成、学习路径生成、以及认知状态与学习反馈生成,如扩展数据图 2 所示。在学习者模拟中,总共模拟了 50 个独立的虚拟学习者。在练习模拟中,为技能 1 和技能 2 各生成 20 个模拟测试问题,每个测试问题包含三个系数:难度、猜测和区分,所有这些都是在 0 和 1 之间均匀分布的随机变量。

学习路径生成涉及为每个模拟学习者生成练习序列。为了简化模拟环境设置过程,学习序列通过随机选择问题生成,每个模拟学习者的学习序列长度为 20。将学习者的学习路径与预设的技能获得函数(见表 1)结合,可以在每次练习开始时计算学习者的技能掌握情况。最后,结合测试问题的参数,使用三参数 IRT 模型(公式 (4))计算学习者的测试分数,并添加均值为 0 和方差为 的高斯随机噪声。

在三种设置下,线性法则的参数为 ;指数法则的参数为 ;幂律的参数为 。在考虑的三种设置中,互惠因子 设置为 0.5。在模拟实验中,选择了四种不同级别的噪声作为测试标准,即 。在深度学习回归器中,特征编码和掌握推断中的 MLP 模型均为三层(两层隐藏层和一层输出层),每个隐藏层有 1000 个神经元,激活函数为泄露 ReLU。模型优化器设置为 Adam,学习率为 。在符号回归模型中,迭代次数设置为 2000,种群大小为 100,最大函数长度为 15。预设操作符包括 ‘+’、‘-’、‘×’、‘’、‘’、‘’ 和 ‘’。

数据预处理方法和模型参数设置

在真实数据实验中,使用的 Lumosity 平台(www.lumosity.com)提供了旨在改善认知功能(如记忆、注意力、灵活性、处理速度和问题解决能力)的脑训练游戏。我们分析了大量用户的练习记录,以揭示隐藏在数据背后的技能获得行为模式。

数据集来源于参考文献 45,经过数据筛选和预处理,最终选定了 6,143 名用户,并提取了他们的前 2,000 条练习记录作为研究样本。基于参考文献 45 的数据标注基础,我们识别了 37 个行为特征,包括所有 U、E 和 S 类型特征。数据集中包含 85 个游戏,每个游戏都标记了相应的技能和子技能。技能包括注意力、灵活性、语言、数学、记忆和推理,子技能则作为模型的输入特征,不作为预测目标。

为确保数据质量,我们过滤了接触时间较少的游戏及其相关技能,选择了练习次数超过 2,000 次的用户的前 2,000 条记录作为训练数据。为了避免异常分数问题,我们对选定训练数据的分数进行了归一化,具体为将前 10% 的分数视为满分,并对每个游戏的数据进行了最大-最小归一化,所有分数均统一缩放到 [0.01, 0.8] 范围,以防止认知诊断模型引起的无穷离群值问题。

深度学习回归器采用三层 MLP 模型进行特征编码和掌握推断,每个模型由两层隐藏层和一层输出层组成,激活函数为泄露 ReLU,每层含有 1,000 个神经元。优化器设定为 Adam,学习率为 1e-4。符号回归模型的配置为种群大小 100,最大函数长度 15,预设操作符包括 ‘+’、‘-’、‘’、‘’、‘’、‘’ 和 ‘’,模型训练进行 2,000 次迭代以实现最佳性能。为了提高法则的可解释性,除了 ‘+’、‘-’ 和 ‘’ 外,不允许嵌套其他操作符。在符号回归模型中,随机选择了 2,000 条训练日志样本,并通过特征重要性分析方法筛选出最重要的 8 个特征。

3  结果

模型在模拟数据上的验证

验证技能获取数据中的模式是一项挑战,因为其争议性较强。因此,我们使用模拟实验来进行模型验证,旨在展示算法恢复数据模式的能力,从而增强在现实应用中的可靠性。我们使用技能获取理论中的代数方程作为预设的控制法则(表1)。然后生成模拟学习者、练习和训练日志,并根据预设控制法则计算技能掌握和练习得分。本研究测试算法能否仅使用模拟数据恢复这些法则。有关模拟数据生成、评估过程和样本表示的详细信息,请参见扩展数据图2,并在方法部分查阅生成模拟数据的过程,包括数据结构和参数设置。

首先,我们调查了深度回归模型对模拟数据的拟合。我们创建了四个具有不同参数的深度学习回归模型:。这里,表示模型中每层的隐藏神经元数量,设置为100和1000以模拟小型和大型拟合能力;表示对注意力值的正则化使用,分别表示深度回归模型的优化目标是否在使用或不使用正则化的情况下实现。正则化可以简化恢复方程,提高模型的可读性,但这可能降低拟合能力。我们在五个误差水平()的模拟数据集上训练了这四个回归模型5000个周期。图2a、b分别绘制了平均拟合绝对误差和正则化项值。

图2a显示,具有更多隐藏神经元的模型()的性能略优于具有较少神经元的模型(),这与以往的神经网络研究一致。带正则化的模型()的拟合精度略低于不带正则化的模型(),但差异不显著。在图2b中,模型的正则化项远小于模型(3到7个数量级)。同时,模型的正则化项略低于模型。总体而言,与未正则化的模型相比,模型的拟合误差偏差最小,同时大幅降低了正则化项。模型在拟合性能和正则化项方面优于模型。因此,选择模型作为后续实验中符号蒸馏和法则分析的深度学习回归模型。

其次,我们分析模型再现预定控制法则的程度。基于训练好的模型,执行符号蒸馏和控制法则提取过程,并将结果与预定模型进行比较,以评估模型的恢复程度。对于深度学习回归模型,我们使用来自两个方面的五个基本特征:练习特征()和调度信息()。特征涉及与技能1、技能2及通用因素的练习相关性进行独热编码,并作为特殊技能对待。特征包括计数(技能练习次数)和间隔(练习会话之间的时间)。在模型中,由于其极低的正则化项值(),特征的权重设为1,生成的编码特征分别代表对应技能的历史练习次数和频率。

模型评估考虑了特征、结构和数值维度。特征维度关注识别的重要性;结构维度评估符号回归生成的代数方程的正确性,允许参数值存在一定误差;数值维度检查恢复方程是否在真实值的可接受范围内,误差阈值低于1%。这些维度在评估过程中是相互关联的。

我们在三个设置和四个噪声水平上进行模拟实验,以测试控制法则在模拟数据集上的恢复。结果如图2c所示,一些特征重要性结果见补充图1。提出的方法在噪声范围内有效恢复了预设技能的控制法则()。在时,模型再现了技能2的方程和技能1的线性设置方程,但由于错误导致的函数确定模糊性,模型在幂和指数设置上面临挑战。随着误差减小,这一挑战减轻。在时,模型识别了核心特征,但由于许多噪声值超出了评分范围,在方程结构上遇到困难。在补充图2中,替代误差设置下的结果显示了类似的结果。这些结果表明,所提方法能够在不同设置中在一定误差范围内准确重建预定义的方程,展示了其在现实场景中的潜在适用性。

将模型应用于大规模真实世界的认知训练数据

在本节中,我们尝试将本文提出的方法应用于大规模真实世界数据集,以发现真实数据中的模式,并为技能获取理论提供证据。我们选择了Lumosity作为此应用的验证平台。有关数据集、数据过滤、预处理方法等的更详细描述,请参见方法部分。

我们进行了模型拟合分析,以评估深度学习回归模型在实际数据上的性能,并进行模型选择。评估了六个模型:。命名规则与模拟实验相同,其中表示每层的隐藏神经元数量,表示优化目标中是否包含正则化项。每个模型进行了50个训练周期,绘制了每个周期的平均拟合绝对误差和正则化项值(扩展数据图1a,b)。结果表明,所有模型收敛,误差值范围为0.086到0.088。模型将正则化项优化至约,接近理想的注意力值1。表现最佳的模型被选用于进一步实验。

为了进一步评估深度学习回归模型的性能,我们随机抽样数据,并检查模型在不同技能上的绝对拟合误差(扩展数据图1c)。注意力、灵活性、推理和语言的误差分布相似;然而,记忆的平均误差最低,而数学的平均误差最高,约比其他技能高出50%。这表明数学技能训练可能涉及更多复杂性或未建模的关键变量。此外,扩展数据图1d显示,每个技能的训练日志数据占总数据的比例相对较低,尤其是数学、推理和语言。

深度学习回归模型进行了特征重要性分析,以识别影响技能掌握的关键因素。年龄和教育水平被发现对所有技能都重要,表明它们对技能获取的影响。游戏玩法可以提高反应速度和注意力,而教育水平反映了初始能力,尤其是在数学和语言方面。练习次数(用“#”符号表示)对技能获取至关重要。此外,某些子技能(如推理中的)被发现影响语言掌握,暗示相互依存性。这些发现与以往研究一致。

图3展示了符号控制法则的分析,以及六项技能在不同复杂度水平下的最优方程。符号回归算法在更复杂方程上表现更好,但技能的拟合误差在超过某一复杂度阈值后并未显著降低。我们以方程中的特征数量作为指标,专注于识别每项技能在不同特征数量下的最佳拟合方程(图3中红色高亮)。技能在只有一个特征时表现出良好的拟合性能,表明存在核心模式。增加复杂性并未显著改善拟合,因此我们专注于具有一个特征的最佳拟合方程(图3表格中黄色高亮)。

探索真实世界数据集中自动发现的模式

为了分析识别的模式,我们将其与经典的幂法则和指数法则进行了比较,使用Lumosity数据对六项技能的编码特征和技能掌握进行评估。这些方程中的参数经过优化,拟合优度通过指标进行评估。结果汇总在表2中,并提供了模式评估的可视化表示。五名学习者的技能掌握估计曲线与深度回归模型的结果进行了比较(扩展数据图4)。

表2的结果显示了一些有趣的现象。首先,幂法则和指数法则在不同技能上的拟合性能有所不同。幂法则对注意力、语言、数学和推理的拟合较好,而指数法则则更适合灵活性和记忆。这种差异与以往的研究发现一致。其次,我们的方法通常优于传统法则,特别是在注意力、灵活性、语言和推理方面。符号回归方程在大多数情况下提供了更好的拟合结果。小的参数变化导致轻微差异,突显了我们方法在没有传统技能获取法则先验知识的情况下的有效性。最后,我们的方法揭示了数学和记忆技能的新模式,偏离了传统法则,显示出更好的拟合。这表明我们的方法在发现新模式方面具有潜力,并为研究人员提供有价值的见解,强调数据驱动的方法。

在检查发现的方程时,出现了各种练习模式。其中,发现了一种在研究中未提及的对数法则。此外,注意力()和语言()的两个幂法则的逆形式被观察到,参数表现出相反的影响。研究中缺乏一般因素理论表明其可能对技能获取没有显著影响。技能遗忘现象也没有明显观察到。影响语言和数学的主要因素被发现是注意选择练习的频率,而非其他练习频率。这凸显了注意力在游戏技能提升中的重要性。然而,这一现象可能暗示通过游戏化练习提升语言和数学技能可能面临挑战。实验结果表明,我们的算法能够发现以前由人类观察到的模式形式,而不需任何先验知识,同时识别未知模式形式,具有更好的拟合。这充分展示了所提方法的应用潜力和价值,能够有效为研究人员提供数据分析工具。

我们的研究模型聚焦于分析学习者在学习过程中的表现,这是一个关键研究领域。为了评估我们的模型性能,我们将其与多个最近的学习模型进行比较,使用大规模数据。比较模型包括基线学习模型(BLM)、双时间尺度学习模型(TLM)、带遗忘的双时间尺度学习模型(TLMF)和来自文献50的互动模型(IM)。我们还考虑了经典的加性因子模型(AFM)和最新的学习增长模型(LGM)52,用于学习者增长建模。我们的模型,即自动发现模型(ADM),结合发现的法则与三参数IRT模型预测学习表现。与具有唯一参数的比较模型不同,我们的模型是一个通用学习模型,所有学习者共享同一参数集用于学习模式。我们使用两个评估指标:指标用于拟合精度,贝叶斯信息准则(BIC)用于基于数据似然和参数数量的模型选择。对Lumosity数据集进行了参数估计,最佳模型结果汇总在表3中。

我们的模型在方面优于大多数比较模型。在灵活性、语言和推理方面,该模型的表现与第二最佳模型相当,但在注意力、记忆和整体数据性能方面表现更佳。尽管在数学上与特定模型相比稍显不足,但由于参数规模较小和拟合水平较高,我们的模型在与其他六个模型的BIC比较中显示出显著优势。这些结果表明,自动发现的符号模式在简洁性和数据拟合方面具有一定优势。这可能表明在模式发现领域,AI算法相较于人类具有某些优势,具有成为相关研究重要工具的潜力。

4  讨论

我们提出了一种新方法,帮助研究人员识别数据中的隐藏模式,为相关研究提供证据和见解。在模型开发过程中集成了深度回归模型,以简化符号模型的发现。该深度回归模型结合了深度学习架构(类变换器结构)和IRT模型,可能包含研究人员的先验假设。实证研究表明,使用深度学习回归模型可以准确计算潜在状态,并减少符号回归的搜索空间。然而,先验的引入在一定程度上限制了模型的可推广性。

本研究采用基于研究人员理解的启发式模型选择方法来建立符号回归中的模型选择。尽管没有通用的方法,但探索通用和合理的模型选择方法是至关重要的。此外,该方法仅限于连续反馈场景,未涵盖离散反馈。未来的探索将集中于此,注意到离散反馈可能引入更多噪声,增加困难。

最后,本文通过大数据和人工智能考察心理学研究中的技能获取。通过分析大规模NODS中的核心模式,我们提供了新的证据和方法。然而,与其他数据驱动的研究一样,我们的研究可能受数据噪声和偏见的影响,可能影响结果的可推广性。我们认识到发现学习模式的挑战,并承认我们的研究基于Lumosity数据集的观察。进一步研究需要验证结果的可推广性及其潜在机制。






END


PINNs代码汇总

长按扫码

点赞

关注

在看

💙整理不易,希望各位道友能够多多支持宝库,支持邪云宝库!你的一个点赞、一次转发、 随手分享,都是宝库前进的最大动力~

💛2024,不忘初心,宝库会给大家带来更好的内容,让我们2024,一起暴富!

邪云宝库
用于分享物理科学启发AI的新范式:人工智能的物理科学(PhysicsScience4AI, PS4AI)资料。用于各种debug日志,偏微分方程,物理信息神经网络,算法原理及实现,数据挖掘,机器学习,智能优化算法,多元统计及生活分享。
 最新文章