赵诗彤 中科院神经所硕博在读
但LbT常被认为是一种“悖论”。这一方面是因为,从某种意义上说,学习者并没有获得新的信息——他们所能利用的,只是已存在于脑海中的元素;而另一方面,学习又确实发生了——学习者获得了新的知识(比如数学问题的答案)或新的能力(比如回答新问题的能力或进行新推理的能力)。
近日,普林斯顿大学心理系概念与认知实验室的Tania Lombrozo教授在Trends in Cognitive Sciences上发表了一篇综述,为这一悖论提出了解决方法[2]。通过对解释、模拟、比较和推理这四类具体的学习方式的分析,这篇文章揭示了它们背后人类和人工智能之间相似的计算问题和解决方案——二者都是在利用重新表征现有信息,来支持更可靠的推理。最后她指出,作为人类这样一种资源有限的系统,LbT帮助我们按照当下需求提取必要的信息并进行处理,而不必时刻产生新的信息。
那么,这种近乎“空想”的学习行为所产生的结果,能否被视作“真理”呢?在下定结论前,让我们先回顾一下支持LbT的证据。
Trends in Cognitive Sciences (2024).
纠正性学习中,学习者识别并改进现有表征中的缺陷。例如,“解释深度错觉( illusion of explanatory depth,IOED)”现象表明,人们常会高估自己对设备运作原理的理解,在尝试解释后,往往才能更清楚地认识到自己理解的局限性[4]。
生成性学习则指学习者通过解释从而构建新的表征。例如,在学习新类别时,在提示下进行解释的参与者,更有可能生成抽象表征并识别示例中的广泛模式。
一个纠正性心理模拟例子是:在一项研究中,参与者同时进行两种思想实验——一种符合牛顿力学的直觉,另一种则诱发错误的动力论思维(如认为物体需要持续施力才能运动)。这些不同的思想实验使参与者产生了矛盾的直觉,有时依据牛顿力学做出正确判断,有时则被动力论的误导所影响。然而,实验结束后,参与者通过思想实验纠正了原有的错误直觉,不再支持那些与动力论相关的错误判断。
而生成性心理模拟的示例则见于因果推理中。当判断一个事件是否导致另一个事件时,人们通常会进行“反事实模拟”。例如,在一项实验中,展示了第一颗球撞击第二颗球,使其改变轨迹并到达目标。参与者通过反事实模拟,设想如果第一颗球没有撞击,第二颗球的轨迹会如何变化,从而判断因果关系。
类比推理在人工智能领域也受到关注。与人类实验相似,大多数类比推理演示并非纯粹的LbT,更多地AI系统会被要求解决涉及源类比的类似问题。然而,最近的研究表明,不提供源类比的情况下,机器也能通过自身的思维或知识构建类比[4]。在数学问题、代码生成等任务中,最有效的提示是要求大语言模型(LLM)生成多个相关但多样化的示例,描述各个示例并解释其解决方案,然后再给出新问题的解决方案,这个过程可能融合了推理和解释。这样的类比提示的表现优于许多最先进的LLM性能基准,与人类在比较提示下的学习效果有一定相似性。
前提1:“每个人都爱曾经爱过别人的任何人”;
前提2:“我的邻居莎拉爱泰勒·斯威夫特”; 推论:“因此,唐纳德·特朗普爱卡马拉·哈里斯”。
图片来源:mannhowie.com
在前文中,我们探讨了自然脑与机器脑如何通过思考进行学习,尽管它们的运作机制不同,但都面临同样的问题——
为什么“思维”本身就能促进学习?
诗人兼剧作家海因里希·冯·克莱斯特曾论述过“通过说话来学习”的益处——通过向他人表达思考,我们能够在“推理的工坊”中理清和发展自己的想法。他还提出了解释LbT悖论的“思维即学习”思路:学习的并不是我们作为个体的自我,而是我们心智中的某种特定状态。换句话说,LbT中的“学习”并非创造全新的知识,而是让已有的知识变得可获取。思维之所以能够成为学习的源泉,是因为知识的基础早已存在于心智中,只是尚未被我们清晰意识到。
从认知的角度来看,“通过推理进行学习”的过程是学习者将两个前提结合,得出一个在逻辑上已经成立但未明确认识的结论。尽管结论已蕴含在前提中,唯有通过推理过程,将结论变得显而易见,才构成了学习。在这个过程中,推理不仅是机械地组合信息,还产生了一个全新表征,这一表征独立于前提而存在。
将这一思路应用到“通过解释进行学习”时,情况变得复杂得多。因为解释过程中,学习者往往并不清楚什么是明确的“前提”,此时表征的“可及性”便显得尤为关键。不同类型的输入会影响表征的提取。例如,当我们处理“加法”时,输入的是阿拉伯数字还是罗马数字,会显著影响我们对输入特征的感知(如奇偶性),并且可以通过不同的算法(如解释、比较和模拟)来改变可及性条件,从而支持“表征提取(representational extraction)”,创造出具有新可及性条件的全新表征。
表征提取是指通过思考或推理,形成一个特定的认知结构,这个结构具有不同的“可及性”条件。一旦表征被提取出来,它就变成某种前提,继而限制了输出的范围。
在“通过解释进行学习”中,这一点尤为明显——当学习者展开解释时,倾向于选择“根原因(root causes)”较少的解释,也就是说,他们更愿意认为某些因果假设比其他假设更合理、更优越。这样的选择形成了一种隐性前提,限制了后续推理的空间。例如,当学习者对某一解释产生偏好时,这种偏好本身就构成了新的前提,进而影响接下来得出的结论。
图:通过推理和解释的思考的行动
图源:[2]
理解“可及性”差异和表征提取的作用,能够帮助我们将推理学习的逻辑推广至其他学习形式,如解释、比较和模拟。每种形式中的认知过程,都可以看作是通过不断提取新的表征,建立新的推理前提,从而逐步推进学习的进程。但这无法解决另一个问题——
为什么要期望通过解释、模拟或其他LbT过程得出的结论能够产生新的“知识”,即真实的、符合事实的知识?
当然,LbT的输出不一定总是正确的。然而,由于这些过程可能受进化、经验或人工智能设计的影响,我们可以合理地假设,LbT至少部分反映了世界的结构,因此有可能产生相对可靠的结论[5]。即使输出不完全准确,它们仍能在引导思维和行动上发挥作用。例如,通过解释进行学习时,即使生成的解释有误,解释的过程本身可能改善后续的探究和判断,比如帮助学习者识别表征之间的冲突,或者以更抽象的方式表征某个领域。
理解了LbT的机制和潜在价值后,接下来的问题是——
为什么LbT是“必要的”?
我们可以通过计算机系统类比来解释。在人工系统中,内存和处理时间的限制决定了能进行多少前瞻性计算。LbT提供了一种按需生成新颖且有用表征的方法,而不是单纯依赖已有的学习结果。因此,可以假设,LbT在资源(如时间、计算能力)有限的智能体中尤为普遍[6],尤其是在面对未来环境和目标不确定性的情况下。
这些观察还预示了自然思维与人工思维在LbT作用上的差异。随着人工智能逐渐克服人类思维的资源限制,或者当它们处理的问题不涉及高不确定性时(比如在非常狭窄的领域操作),我们预期在这些条件下,人工智能与人类在LbT过程中的表现将会出现显著差异。
参考文献来源:
[1] WEI J, WANG X, SCHUURMANS D, et al. Chain of Thought Prompting Elicits Reasoning in Large Language Models [J]. ArXiv, 2022, abs/2201.11903.
[2] Lombrozo, Tania. “Learning by thinking in natural and artificial minds.” Trends in cognitive sciences, S1364-6613(24)00191-8. 20 Aug. 2024,
doi:10.1016/j.tics.2024.07.007
[3] CHI M T H, BASSOK M, LEWIS M W, et al. Self-Explanations: How Students Study and Use Examples in Learning to Solve Problems [J]. Cognitive Science, 1989, 13(2): 145-82.
[4] ROZENBLIT L, KEIL F. The misunderstood limits of folk science: an illusion of explanatory depth [J]. Cognitive Science, 2002, 26(5): 521-62.
[5] TESSER A. Self-Generated Attitude Change11Preparation of this chapter was partially supported by grants from the National Science Foundation (SOC 74-13925) and the National Institutes of Mental Health (1 F32 MH05802-01). Some of the work was completed while the author was a Visiting Fellow at Yale University. I am indebted to Robert Abelson and Claudia Cowan for reading and commenting on preliminary versions of this chapter [M]//BERKOWITZ L. Advances in Experimental Social Psychology. Academic Press. 1978: 289-338.
[6] BERKE M D, WALTER-TERRILL R, JARA-ETTINGER J, et al. Flexible Goals Require that Inflexible Perceptual Systems Produce Veridical Representations: Implications for Realism as Revealed by Evolutionary Simulations [J]. Cogn Sci, 2022, 46(10): e13195.
[7] GRIFFITHS T L. Understanding Human Intelligence through Human Limitations [J]. Trends in Cognitive Sciences, 2020, 24(11): 873-83.
👇 点个“在看”分享洞见