仿生人会慢思考吗?| 法观
学术
2024-11-12 17:58
北京
丹尼尔·卡尼曼写过一本探讨人类思维模式的书《思考快与慢》,其中提出了两种思维模式:快思考与慢思考,快思考基于直觉、反应快速,慢思考则基于分析、逻辑审慎。
—— 二者没有绝对的优劣之分。从进化角度看,人类为了在面对环境中的危机和机遇时能够迅速响应,形成了能够通过经历积累、联想和大脑本能做出惯性反应的快思考模式,例如临触碰火焰会快速缩手、遭遇猎物本能想追逐,这种反射有利于生存。而慢思考是一种需要耗费更多精力的、有意识的思考。相较于直觉判断,慢思考更严谨,一般能得到更准确或更有利的结果,但速度比较慢。且慢思考有一个天然劣势,因为要消耗更多资源,且属于刻意反直觉,慢思考无法被 被动触发,只能由大脑主动发起。之所以突然想起这本书,是因为ChatGPT-O1、KIMI探索版的陆续发布,让人不禁怀疑前沿AI专家们是否也在“反直觉”地另辟蹊径,尝试训练人工智能模拟人类思维模式。生成式大模型在训练阶段会接触到海量的文本数据,通过对大量文本的分析和学习,模型能够掌握不同词语之间的搭配关系、上下文的关联性以及语言的各种规律,包括承接上文的每个词的出现概率(注意不是内涵的逻辑关系)。如此一来,模型可以基于给定的内容,先 生成第一个词,然后把第一个词纳入前提、计算出第二个词,再把第一二个词纳入前提、计算出第三个词……以此类推,直至计算出“终止”。
例如,模型会学习到在“我今天早上喝了…”之后,出现“…汤”或“…粥”等词的概率较高,而出现“…桌子”等词的概率极低;例如,在生成一篇文章时,开头的句子会影响后续句子的生成,模型会根据已经生成的内容不断优化后续的词的预测,使得文章的整体内容读起来符合一定的主题和逻辑。这种生成模式就非常类似于人类的直觉,生成式模型在大量文本数据上进行训练,如同积累了极为丰富的“经验”。通过对海量文本中词语的组合、上下文关系等的学习,模型掌握了各种各样的语言模式和规律,这类似于人类在长期生活实践中积累的对事物的认知和应对经验。当接收到输入内容并生成下一个词时,模型基于已学习到的参数和模式能快速开始计算下一步,类似人类基于过往经验,在面对某些情况时无需从最基础的原理开始推导、不必经过漫长的推理步骤,可以直接迅速做出的直觉判断。单纯的计算下一个词的概率的弊端很快就呈现了,人们发现早前大模型在回答问题的时候经常出现杜撰、套路、避重就轻等情况。
这当然不是大模型故意的(毕竟它并不“理解”自己生成了什么)。
为了削弱机制弊端,聪明的人类工程师引入了“思维链”(Chain of Thought, CoT)。顾名思义, 思维链是一种在处理任务时引导模型进行问题拆解、逐步生成的结构化方式,呈现为一系列连贯的、具有逻辑性的中间“思考”步骤,而不是让模型直接得出最终答案。例如,在分析一个案例时,思维链可能表现为,指导模型先根据案情描述提取关键信息,然后分析这些信息之间的关系,判断属于什么类型的纠纷,归纳存在的争议焦点,归纳知识库中类似争议焦点适用的法律渊源、证明方式、倾向性意见,接着按步骤逐步计算生成,最后再得出完整的分析意见。大部分情况下,思维链是由人工专家提供的。
研究团队会针对特定的任务和问题类型,基于大量的示例数据,精心编写包含思维链的详细步骤,“引导”大模型将一些列快思考的结果组合成具有完整推导过程的答案,相当程度地提高了大模型的准确性及可解释性。
也有团队尝试让大模型自己生成思维链,据技术专家分析,OpenAI发布的ChatGPT-o1大模型就是通过自动生成思维链再依据思维链进行分段生成的方式,实现了准确率的明显提升。然而,自动思维链虽然可以在一定水平上增加训练数据的多样性,但比起人工构建的思维链的精准程度还有很长一段距离。
何况这种以清晰步骤展现的思考过程就类似人类解决问题时有条理的思维流程,依然算不上真正的推理,至多属于一系列快思考的组合;而且因其详细展示了答案生成的过程,如果模型本身存在知识缺失或者意识形态偏见,这些缺陷会通过这样拆分的“推理”过程被暴露和放大。反思(React)机制、专家协作机制(Collaboration of Experts, CoE)协作对话机制(Collaborative Dialogue Mechanism)似乎是“更慢”的解决方案。人类大脑的认知要经历复杂的信息处理过程,涉及多个脑区的协同工作,认知神经科学的研究表明,大脑通过分布式的信息加工系统来实现认知功能,其中,信息的传递和整合是关键。在认知过程中,大脑对感官输入的内容进行处理和整合,形成对外界的理解和反应。这个过程不仅包括对信息的初步感知,还涉及到记忆、注意力、决策等多个高级功能。例如,当你听到客户描述一个案情的时候,听觉首先被调动,然后传递到大脑进行进一步处理,过程中你的大脑可能会激发常识、法理、法条、案例、共情、质疑、评价等多方面认知或能力,最终形成对案件的初步理解,组织语言并输出。生成式大模型的反思、协作机制,借鉴了这样的认知过程来提高模型的输出质量和准确性。① 反思机制 是大模型的一种自我评估和自我纠错功能,它允许模型在生成文本后,回顾、分析和评估生成内容与问题的相关性、准确性和逻辑一致性,为生成式大模型提供了一种自我评估和自我改进的能力。② 专家协作机制 架构是360首先提出的,在面对提问时,比起传统的选择一个“专家”定向回答问题的方式,这个架构会自动挑选并组织若干相关专家进行协同回答,模拟多脑区协同,利用不同模型或智能体在各自领域的优势,组合形成一个综合、全面的解答,以适应不同类型、不同复杂度的任务。例如,在回答一个关于小股东能否直接提起派生诉讼的问题时,结合了反思机制与协作机制的大模型有如下表现:- 扫描图中二维码,登录法观,输入框中“@深度思考” 免费体验法律大模型的慢思考模式。AI生成内容仅供参考
③ 协作对话机制 是斯坦福大学推出的「Co-STORM」的核心机制,通过设定LLM专家(负责搜索并生成答案)、主持人(负责发现问题)等不同的智能体角色,并允许真人用户参与到答案生成的过程中(负责参与对话、引导焦点,而不是沉默等待结果),并采用轮次的方式,模拟一场真实的协作讨论,以实现流畅的协作式AI学术研究,进一步加强了用户的参与感,并提高了资源利用效率。大模型的慢思考能力展现了人工智能在处理复杂任务时的巨大提升空间。这种通过模拟人类推理过程的能力,不仅提高了模型的精准性,也增强了其输出的可解释性,使得人类用户能够更好地理解和信任模型的推理过程,在垂直领域(如医疗、法律)的应用更具实际价值。尽管大模型能够通过慢思考机制进行多步骤生成,但它们仍然不是在进行真正的推理。人类慢思考具有高度的灵活性和创造性,能够进行抽象思维和跨领域知识整合。相比之下,大模型虽然在特定任务上表现出色,在处理需要深层次抽象思维和跨领域知识整合的问题时,例如哲学、伦理、综合治理等复杂问题时,往往还是难以达到人类的思维水平。人类的慢思考还涉及到情感、共鸣和社会文化背景的影响,而AI机制则缺乏这些复杂的人类特质,更加缺乏原发的主动性。而且大模型的慢思考机制需要大量的计算资源,尤其在需要进行大量迭代和自我修正的场景中,对于资源有限的应用场景可能是一个挑战。目前,法观法律大模型已经开放深度思考模式,点击文末“阅读原文”或前往faguan.ai 即可免费体验。也欢迎你与我们交流使用体会,联系咱们的小助理(微信扫描下方任意一个二维码,或添加微信号:faguanAI),发送暗号“共建者”加入法律大模型共建者群: 希望随着神经网络和机器学习技术的进步及跨学科合作协作,大模型能够更加擅长处理复杂任务,并能更好地贴近实务,同时为大模型的设计和训练提供更深入的洞见,为技术的健康发展提供指导和约束,为人类社会带来更多的可能性和价值。