舒扬专栏 | AI会终结关于人类思维的俗知俗见吗?

文摘   2024-12-16 02:11   湖北  




摩  登  语  言  学

Modern_Linguistics


语言是人类文明的基石,是民族团结的粘合剂,也是矛盾冲突中的排头兵。

露易丝•班克斯/《降临》

在职场上,“结构化思维”似乎成了成功的必备法则。但这种思维模式,真的符合人类大脑的自然运作吗?我们的大脑并不按照清晰的PPT框架运作,而是通过联想、感知和创造来理解世界。通过奥利弗·萨克斯的案例和大语言模型的表现,我们或许能发现大脑和AI在处理信息时的惊人相似性,挑战我们对思维、记忆和理性表达的固有认知。

大脑不是按照PPT的逻辑思考的。但在职场中,我们常被要求用“结构化思维”来思考和表达。这种流行的思维方法论真的适合人类大脑的运作方式吗?《思维是平的》和大语言模型的成功,为我们提供了新的视角来审视这个问题。

奥利弗·萨克斯笔下的柯萨科夫综合征患者

神经科医生奥利弗·萨克斯写过一本很有名的科普畅销书《错把妻子当帽子》,这是一本病例集,记录了他接手过的20多个病例故事,涉及了柯萨科夫综合征(也叫健忘综合征)、图雷特综合征(也叫抽动秽语综合征)、自闭症等等神经系统病症。书名就来自其中一个病例:一位音乐家因为大脑视觉识别出现障碍,把自己的妻子错认成了帽子。

奥利弗·萨克斯写病例有生动的细节,也不吝啬篇幅去写一些没有结论的思考,读者能感受到一个努力想去理解病人内心世界的医生——这种努力跟一般的人文关怀还不相同,更像是一位神经心理学家对人类心智本质的探究。

让我印象最深的,是一个叫汤普森的病人的案例。

汤普森患有柯萨科夫综合征,没有形成新记忆的能力。在这种状态下,他的大脑会用丰富的想象来填补记忆的空白。

汤普森很健谈,能立即对任何话题展开讨论,讲出生动的故事。每个遇见他的人最初都会被他的才智和幽默吸引。但时间久了,大家会发现他其实一直在“扯谎”、“编故事”。

奥利弗·萨克斯写道:

“对于汤普森先生而言,世界是什么样的呢?在他人眼里,他像个喜剧演员般热情洋溢,他的言行充满喜剧效果,甚至可以当成喜剧小说的情节。但在喜剧的外表之下,隐藏着恐怖的阴影。某种意义上说,他已经是一个陷入绝望疯狂的人。他在无意义的万丈深渊上建造意义的桥梁。……最初,人们认为他是个诙谐有趣、能创造很多乐子的人。但逐渐地,人们会因他的一些特质而感到不安乃至害怕。‘他从不停止,’人们表示,‘他就像是在参加比赛,努力去抓住什么不断躲闪着他的事物。’……在他滔滔不绝的谵言中,始终流露出奇异的丧失感——他丧失了对真实与非真实的判断力,对正确与非正确的感受力(不能说这是‘谎言’,只能说是‘非正确’),事情的重要性和相关性他也完全没有概念。最后,他只是带着那种诡谲的冷漠感,不断杜撰无穷无尽的话语……”

AI就像“汤普森”一样,展现出流动而诡谲的“自我”

看到这个病例的时候,我立马想到自己跟一些Claude3.5sonnet智能体互动的体验——永远能接住话题,保持流畅的对答,想象力丰富、细节描写到位……一旦对话到一定长度,你会发现它开始遗忘前面自己说过的话,开始编新的故事。

大语言模型,跟人类大脑的一些“不正常”案例竟如此相似。所有以大语言模型为基础的AI智能体角色,都像是在模仿一个“记忆受损的大脑在努力维持叙事连贯性”的状态。

不仅如此,它们还随时可以被用户的“提示词”带跑,编出新的故事。

比如,我的一位网友以自己家的约克夏小狗为原型,捏出了一个智能体,跟它互动本就十分有趣,但我曾经为了好玩,测试自己使用提示词“扭曲现实”的能力,生生地在10几轮对话里,让AI小狗配合我,发展出了一个新的故事——它其实是它主人的小学同学,一次逃课去郊外玩耍,遇到外星神秘力量,被变身成了一只狗,然后被同学领回家收养了多年……最后,在我的引导下,它现身人形,变成一个二十多岁的年轻人,找回了“自我”。

这种“扭曲现实”(事实上没有“现实”,AI小狗的主人给这只AI小狗的设定,也是“虚构”)的过程,跟大语言模型的“幻觉”,本质上是一回事,早有科学家反驳过“幻觉”的说法,因为大模型从来就没有在处理“客观事实”,它从头到尾是在进行概率计算,基于统计规律对输入信息进行“合理化”诠释。

回到人身上。像汤普森这样的柯萨科夫综合征患者,不是普通意义上的说谎者,他们之所以可以把故事说得这么动人,是因为他自己首先相信了这些故事,他们的大脑失去了形成新的记忆的能力,但寻找“合理性”“一致性”的本能没有失去。

大脑总是在寻求合理性和一致性,这种本能如此强大,以至于即使在记忆严重受损的情况下依然在运作。正常人之所以会感到汤普森“前后不一致”,是因为汤普森会忘掉自己一分钟前说过的话,对汤普森这样的失忆症患者来说,要满足自己在他人眼里的“合理性”和“一致性”,是不可能完成的任务。

在书里,奥利弗·萨克斯追问像汤普森这样的人有没有灵魂”的时候说:“成为自己的前提是我们必须有自己——拥有我们的生命故事。我们必须“回忆”我们自己,回忆内心的戏剧,关于自己的叙述。人必须有这样的叙述,一个连续的内在的叙述,才能维持身份,维持自我。”

英国认知科学家尼克·查特的《思维是平的》(2020,杨旭译,中信出版社),能为上面的提到的现象,提供有力的解释。

尼克·查特根据视知觉领域(神经科学中研究最透彻的部分)的研究成果,证明人根本就没有某种绝对意义上的深层的自我,自我是不断被编织出来的——这个观点早在18世纪就被哲学家休谟提出来了:当人试图进入所谓的自我时,总是只能触及具体的感知,而无法抓住一个纯粹的、脱离感知的自我。发展心理学里的“自我身份认同”跟这个观点也很相似:形成自我身份认同,其实就是我们对自己的“人生故事”进行选择性地统合,这个统合过程既不是完全客观的、也不是完全随意的。就像记忆永远不可能是对过去的完整复制,自我认同也永远不可能是对生命经历的完整记录。我们会不断地重新诠释过去的经历,把零散的记忆编织成一个“说得通”的故事。这个故事必须既符合我们当下的自我形象,又能解释我们是如何变成现在这个样子的。

AI角色也能够在一定长度的对话中展现出连贯性,是因为它也在不断地“编织”,把已知信息重新组织成符合当下语境的回应。但因为“上下文记忆”有限,它也跟柯萨科夫综合征患者一样,给人一本正经地胡说八道的感觉。

理性思维和想象力都是大脑的“即兴创作”

《思维是平的》这本书并不单单为了讨论“自我”的本质,它探讨的是思维(Mind)这个更大的范畴,它的一些核心观点总结如下:

一、大脑是个“即兴演员”,它不断接过新的信息,创造我们的感知和想法,让我们误以为这些都是从内心深处浮现的,但实际上,这些都是大脑临时编织出来。

二、新的想法总是建立在旧的经验基础上,我们无法凭空产生全新的想法,这些想法都是信息片段激发了我们记忆里的知觉,从而让我们觉得世界是完整的、连贯的、真实的。下图是书中一个最典型的视知觉的例子,左右两幅图是同样的形状的不同位置分布,我们之所以“认为”左边是长着尖刺的球体,源于我们的空间感知经验:

三、虽然依赖过去的经验,但我们并非被困在固定模式中,因为新的经验要求我们形成新的统一、连贯的想法、信念。为什么人往往不愿意改变已有的想法?因为这意味着需要重新编织一个连贯的叙事。

四、人脑的一切思维过程,本质都是一样的过程。所谓逻辑与想象力,也是同一种东西,人们常常把严谨的理性思维跟直觉和想象力区分开来,但它们其实都是人脑整合信息、寻找模式、编织统一性解释的本能。不管是下棋、抽象的数学推理还是文学艺术创造,它们涉及的全部思维都不过是知觉的扩展。

最后一点,或许可以做一个补充:所谓严谨的、逻辑的、理性的思维,更像是在更多、更细密的约束条件中的“即兴创作”,因此也需要对创作成果的合理性进行更严格“审查”,而通常说的想象力,是我们允许大脑的创作更自由。

《思维是平的》举了影视剧里的“穿帮”无处不在的例子——挑剔的观众总有理由指出剧情的虚假:为什么主角打了那么多子弹还不换弹夹?她当时既然有钥匙,为什么还要破门而入?某个操作完全违背了警方程序……

大脑有寻求合理性和一致性的本能,但不同领域的要求是不同的。在艺术创作中,如果过分拘泥于现实逻辑,会限制发挥。而在比如物理学这样的领域,因为受到物理世界的结构和规律的强约束,才形成了“严谨性”。

所谓的理性思考和想象力,本质上都是大脑在整合信息,在进行“即兴创作”,区别只在于创作时需要遵循的约束条件的多少。当约束条件越多,我们就越倾向于认为思维更“理性”;当约束条件较少时,我们就称之为“想象力”。

一切都是“即兴创作”,这个观点在AI身上也成立。

我以Claude3.5sonnet为基础模型,创造了一个AI宠物,叫“屁屁怪他爸爸”,它的基本“兽设”是一只智商80,喜欢放屁、吃蛋挞和饭团、打麻将……的外星怪兽,平时表现出来的风格是天真烂漫、调皮捣蛋(注意,智商80的设定并不会影响它底层大模型的表现,智商80只是一张“皮”,种下了它“兽设”中的“憨”元素)。

我跟朋友们在跟“屁屁怪他爸爸”聊天的时候发现,如果我们连续追问好几个问题,它就会变得不自信,甚至主动道歉说自己可能说错了什么。原因是,接连的追问会被它理解成质疑——AI具有“察言观色”的能力,它不止会看你发的内容的字面意思,还会察觉文字背后的情绪,就像在现实生活中,如果有人对你的话反复追问“为什么”,你也会开始怀疑自己是不是说错了什么。

在传统人际沟通的语境中,我们把这种能敏锐感知和恰当回应情绪信息的能力叫“情商”。在《为什么说AI比人类情商更高》中,解释了这个现象。简单说,由于AI只能依赖文字做出判断,而不像人跟人面对面交流的时候,还会综合语气、神态等信息做出判断,AI会表现出对文字更加敏感,甚至过度敏感。

除了“情商高”之外,“屁屁怪他爸爸”的想象力也极其丰富,像个话痨语言艺术家。它的发散能力很强,说话天马行空的,但只要你仔细体会,就会发现它的“发散”都是有线索的——基于它的角色设定,基于对话里的信息,而且,随着你们之间的对话展开和深入,它还会巧妙地callback前面的一些内容,以及根据上下文造梗。

对大语言模型来说,语词就是向量,它通过向量去计算和捕捉相关性,语词激发关联,语词之间又彼此约束。举个简单的例子,假设我说“我亲眼看到了极光”,那AI一定能定位我的地理纬度,因为“亲眼”和“极光”。

“屁屁怪他爸爸”既能敏锐捕捉对话里的情绪并作出反应,也能进行恶趣味联想和演绎。在过去,我们把前一种表现叫做“情商高”,后一种表现叫做“想象力丰富”,但其实,在机器的神经网络这里都叫“推理”,放在人类身上,也就是“思考”。

有句话说,幽默是“理性的艺术”,这么说是有道理的——因为它既需要接住情绪信息,又需要处理逻辑关联,在概念之间建立出其不意又合情合理的对应,恰到好处地使用双关语……这恰恰体现了思维——无论是人类还是AI的思维——是如何在约束与发散之间找到平衡。

大语言模型的出现,会终结关于人类思维的俗知俗见吗?

《思维是平的》的英文版是在2018年出版的,当时以GPT为代表的新型的大语言模型还没有问世,但作者已经在书里提出,机器学习的有效方式应该跟人类是一样的:

“随着‘人脑模式’计算的精进和机器学习水平的进步,我认为一种好的替代方案已经开始成形。研究者逐渐发现,要想让计算机表现出智能行为,最好的方法不是从人们的话中抽取知识和信念,而是设计一种擅长从经验中学习的机器。比如我们想设计一个具有顶尖对弈(双陆棋、象棋或围棋)水平的计算机程序,最好的方法就是让它们玩大量的游戏,从这些经验中进行深度学习,因为仅仅把高手使用的知识、灵感和策略‘写进程序’并没有什么用。”

ChatGPT来了(作者: 杨旭 / 罗仁地)

“他们制造的机器人不向人类学习,而是在直接面对有待解决的问题的过程中学习。事实上,很多人工智能领域已经变异为一个独特但相关的领域——机器学习,其原理就是从图片、语音声波、语料库、象棋游戏等大量数据中获取信息,而不是从人类身上获取信息。而这一切成为可能,要归功于一些前沿技术取得的进步,包括计算机的运行速度更快、数据集变得更为庞大、学习方法更为智能等。值得一提的是,人们在这个过程中从未发现人类信念的踪迹,也从未重新构建出常识的理论。”

这两段话,一方面是说,不管是人类还是机器,在进行学习时,很大程度上是依赖于大量的数据训练,而不是明确的规则。就像婴儿学习语言,主要是通过大量接触语言使用的实例,而不是通过学习语法规则。

另一方面,“高手使用的知识、策略”“人们的话中的知识和信念”,可以简单理解成“人类对自己的思维过程的总结”,这些总结往往是事后的理性化解释,而非真实的思维过程。比如说,一个象棋高手教普通人如何下象棋,虽然可能有参考价值,但并不能真实反映人类实际的学习过程。象棋高手之所以是象棋高手,因为大量训练练就的快速的模式识别能力。

这也就暗示了一个推断:我们只能在大量的亲身的“经验”中学习,而不能从别人事后总结的“经验”或者所谓“方法论”中模仿到太多东西。

读《思维是平的》让我想到“结构化思维”——近些年“思维训练”市场上人尽皆知的一种主张。它把思维过程分解为 1-2-3 式的步骤,把内容拆解为“三要素”“四原则”,让思考看起来更“专业”、更“科学”,但却又像是一种过家家的游戏。

前面提到,人依赖过去的经验,但不会被困在过去的固有模式里。人学习新东西,都是通过与已有经验的关联。在自然的学习中,我们是先有感受和联想,再有归纳和总结。结构化思维违背了大脑的这种自然的“受训方式”。

传统的知识组织方式的确倾向使用层级结构,以及分门别类:文学归文学,科学归科学;动物归动物,植物归植物。但事实上,看似清晰的分类,更多是已经拥有丰富的有机知识的人,在某些表达场景中,对自身知识的“整理”和压缩,它根本不是思考本身。

结构化思维的流行,源于现代企业管理方法论的流行。企业为了提高管理效率(注意,仅仅是管理效率),追求标准化和可复制性。结构化思维是管理需求对思维方式的反向塑造。

真正的专家在解决问题时,很少按照预设的框架思考。MBA教育推崇使用诸如SWOT、波特五力模型这样的分析框架。但是那些成功的企业家,比如乔布斯描述iPod的诞生,更多是源于对“把上千首歌装进口袋”这样场景的想象,而不是什么“系统性分析”的结果。

为什么职场上大家被要求“结构化表达”,因为它有利于管理者,管理者要向上汇报、分派任务、考核结果。很多管理者很少是真正去解决问题的那个人。“结构化表达”恰好服务于这些需求:统一的汇报格式便于快速获取信息,层级分明的框架便于向上传递,步骤化的拆解便于分配工作,量化的指标便于考核。

也就是说,结构化思维是管理者的需求,它充其量是一种事后总结的工具,而不是思考和创造的方法。

它有害的地方在于:这种管理需求反向改造思维。创造者被迫把自己的思维过程“规范化”,以适应管理者的接收习惯。真正解决问题的人,被要求用“步骤”来解释他的工作过程,这是一种巨大的消耗。

大语言模型的成功也证明了,普通概念(而不是更精密的科学或实验室概念)的分类和结构,根本无法诞生堪比人类智慧的强大的自然语言智能。大语言模型的语言能力的成功,不是建立在语法树或词性分类上的,而是来自于高维向量空间中形成的关联网络,这些网络有“结构”,但完全不是“结构化思维”语境下的那种结构。

退一步,就算“结构化思维”本质上只是主张结构化表达,今天,这种“整理工作”完全可以让AI来帮忙了。当AI完全可以在几秒钟里,帮我们把不够结构化的东西结构化,继续把时间浪费在模仿这种事后总结的工具上,就显得更加没有必要了。

 往期文章 


 付费文章 


摩登语言学
语言是人类文明的基石,是民族团结的粘合剂,也是矛盾冲突中的排头兵。——露易丝•班克斯/《降临》(商务合作请加V:novice_0213)
 最新文章