大语言模型很有用,但不能解决人工智能的基本问题,包括推理。
双方辩词
何为“推理”?
与此不同,深度学习(包括大语言模型)中的推理则可以说是在一定程度上借鉴了描述性理论的精神,即根据人们的推理实践(而非抽象的理性原则)来确定模型的行为。即使如此,其中的具体做法仍和心理学完全不同。心理学和逻辑学一样把一个推理过程看作由一系列推理步骤组成,其中每个步骤都有其可以识别、研究的规律,只是这种规律性体现在人们的实际行为中,而未必能被某些抽象原则(如 “保真”)来统一解释。由于神经网络模型中的推理行为是用人们解决实际问题时的前提和结论(在大语言模型中往往体现为语句间的先后顺序)以 “端到端” 的方式来训练生成的,跳过了中间步骤,其正确性的标准也就是 “人们从给定前提中是否推出相同结论”,而不太在乎这些结论是如何逐步生成。在计算机强大的信息处理能力和海量训练数据的支撑下,这种推理模型取得了令人瞩目的成功,但同时也有若干令人诟病之处:
端到端训练放弃了对中间步骤的管控,因此过程和结果难以理解。
对训练数据的依赖造成了概括结论中的 “偏见”、“过拟合” 等问题。
在训练数据不足的问题上靠和样本的统计相似性猜测答案,正确性难以保证。
先天与后天
推理能力的来源
参考文献
[1] XAI is in trouble, Rosina O Weber et al., AI Magazine, 45:300-316, Fall 2024
相关阅读