Melanie Mitchell:人工智能的隐喻

文摘   2024-11-21 22:35   北京  

Melanie Mitchell https://orcid.org/0000-0001-8881-3505Authors 
2024 年 11 月 14 日
第 386 卷第 6723 期
DOI: 10.1126/science.adt6140

在 ChatGPT 发布几个月后,神经网络先驱泰伦斯-塞伊诺夫斯基(Terrence Sejnowski)写道,他正在接受大型语言模型(LLM)所带来的震撼:


“几年前还未曾预料到的事情正在开始发生。我们达到了一个临界点,就好像突然出现了一个太空外星人,它能以一种非常人性化的方式与我们交流....,它们行为的某些方面似乎具有智能,但如果这不是人类的智能,那么它们智能的本质又是什么呢?”


事实上,LLMs 及其人工智能(AI)系统的智能本质是什么?对于这个问题的答案,目前还没有达成共识。许多人将 LLMs 视为类似于人类个体的大脑(或许,像 Sejnowski 一样,类似于太空外星人的大脑)--一个能够思考、推理、自我解释,或许还有自己的目标和意图的大脑。

其他人则提出了完全不同的方法来概念化这些巨大的神经网络: 作为角色扮演者,它们可以模仿许多不同的角色;作为文化技术,类似于图书馆和百科全书,允许人类高效地获取其他人创造的信息;作为人类智慧的镜子,它们 “并不独立思考,[而是]根据我们记录的思想产生复杂的反射”;作为模糊的网络 JPEG,它们是训练数据的近似压缩;作为随机鹦鹉,它们通过 “将语言形式的序列胡乱地拼接在一起...... ”来工作......。 根据它们如何组合的概率信息,但不涉及任何意义";最令人不屑的是,它是一种类固醇自动完成功能。


人工智能界在如何看待 LLM 方面的分歧,在这一系列不同的隐喻中表露无遗。鉴于我们对这些系统令人印象深刻的功能和不可预知的错误的理解有限,有人认为,“隐喻是我们目前所拥有的圈定黑盒子的唯一方法”。


人工智能领域一直非常倚重隐喻。人工智能系统被称为 “代理”,拥有 “知识 ”和 “目标”;LLM 通过接受 “奖励 ”来 “训练”;通过 “阅读 ”大量人类生成的文本,以 “自我监督 ”的方式 “学习”;并使用一种被称为 “思维链 ”的方法进行 “推理”。这些,更不用说该领域最核心的术语--神经网络、机器学习和人工智能--都是对人类能力和特征的类比,与机器的能力和特征仍有很大不同。早在 20 世纪 70 年代,人工智能研究员德鲁-麦克德莫特(Drew McDermott)就把这种拟人化的语言称为 “一厢情愿的记忆法”--从本质上说,设计这种术语是希望这些隐喻最终能成为现实。


当然,人类很容易将非人类拟人化,包括动物、公司甚至天气。但是,当人工智能系统用流利的语言与我们交流,使用第一人称代词,向我们讲述他们的 “感受 ”时,我们就特别容易受到这种倾向的影响。我问 Anthropic 的聊天机器人克劳德对什么最感兴趣。它回答说:"如果说我最热衷于什么,那就是分析和发现的过程--把复杂的问题或想法分解开来,深入理解它们。我尤其喜欢帮助他人学习和发现新的见解。从多个角度探索问题,我感到非常满足。我向 ChatGPT 提出了同样的问题,它告诉我:"我特别热衷于帮助人们找到清晰的思路和新的视角,无论是深入研究复杂的主题、探索创造性的想法,还是让日常工作变得更轻松。我喜欢看到某些东西'击中'某人--那一刻的洞察力或灵感。


尽管 OpenAI 首席执行官(CEO)萨姆-奥特曼(Sam Altman)劝诫公众避免将人工智能拟人化,并将人工智能系统视为 “工具 ”而非 “生物”,但像克劳德或 ChatGPT 这样的 LLM 旨在达到完全相反的效果:让人类将其视为具有情感、欲望、信念和自我意识的个体思维。这一点可以从我上面引用的回复中看出来,聊天机器人在回复中声称自己对所做的事情感到高兴、满意和热爱。虽然这让对话体验更加自然,但聊天另一端的 “思想 ”印象会影响用户对模型的期望,比如对其输出结果的信任程度,它是否能 “理解 ”或 “同情 ”用户,甚至它是否是那种能与用户建立浪漫关系的实体。


我们人类在塑造 LLM 时所使用的隐喻不仅会影响我们与这些系统的互动方式和信任程度,还会影响我们如何科学地看待它们,以及我们如何对它们适用法律和制定政策。


作为个体思维的 LLM "隐喻将科学探索推向了某些方向: 如果你是一名在这种隐喻下工作的科学家,那么给一名法学硕士进行智商测试或任何其他旨在评估人类的标准化测试似乎是再自然不过的事情了。此外,你可能会认为给法学硕士进行人格评估,或在心理实验中用他们来替代人类,甚至思考我们应该如何以 “道德关怀 ”来对待这些系统,都是很有意义的。如果你把法律硕士的概念理解为更像复杂的数据库或用户友好型图书馆,那么这些评估和探究就没有什么意义了。


LLM即头脑的隐喻也被用于法律论证。所有大型人工智能公司都曾在未经许可或未支付报酬的情况下,使用大量书籍、报刊文章和其他受版权保护的文本和图片对其模型进行过训练;作家、报刊、艺术家和其他创作者因此对这些公司提起了版权侵权诉讼。被告的一个主要论点是,人工智能在受版权保护的材料上进行训练属于 “合理使用”,这一论点的基础是 “LLM 就像人类的大脑”。微软首席执行官萨蒂亚-纳德拉(Satya Nadella)在回击此类诉讼时这样说道: “如果我读了一套教科书,并创造了新的知识,这算不算合理使用?....,如果一切都只是版权问题,那么我就不应该读教科书,不应该学习,因为这就是侵犯版权。”


法律学者杰奎琳-查尔斯沃斯(Jacqueline Charlesworth)反驳说,这种依赖于人类阅读、学习和创造概念的比喻是有意误导: “人工智能公司依靠我们对人类智力的直观理解和拟人化的语言,鼓励人们(错误地)认为人工智能机器像人类一样学习和创造,也就是说,它们能够进行概念思考,并从具体知识中进行归纳总结。” 语言学家艾米莉-本德(Emily Bender)进一步指出,纳德拉将 LLM 对训练文本的处理等同于人类对书籍的阅读和学习,“这种论点的基础是将人类的本质最小化”。


最后,“人工智能即心灵 ”的隐喻深深影响了关于人工智能系统可能存在的 “生存风险 ”的争论,假定这些系统可能会 “叛变”,具有类似人类寻求权力的动力,并可能威胁到人类的生存,这种情况在人工智能政策讨论中受到了相当的重视。


人工智能研究人员仍在努力寻找正确的隐喻来理解我们神秘的创造物。但是,当我们人类选择如何部署和使用这些系统,如何研究它们,以及如何制定和应用法律法规来保证它们的安全和道德时,我们需要敏锐地意识到那些往往是无意识的隐喻,它们塑造了我们对其智能本质不断发展的理解。

科技世代千高原
透视深度科技化时代™ 探寻合意的人类未来
 最新文章