当你以为只有硅谷在讨论 AI 时,梵蒂冈的神父们最近也已经坐在一起研究通用人工智能(AGI)了。
在梵蒂冈城的会议室内参加讨论的有:
宗座大学的 Michael Baggett 神父
Humanity 2.0 基金会主席 Philip Larrey 神父
MIT 教授 Max Tegmark
波士顿学院教育学院的 Brian Smith
香港大学 AI & Humanity 实验室研究员 Jean Gove 神父
当硅谷还在谈论下一个 AI 创新时,这几位神父的思考方式则是:我们是否应该发展通用人工智能?技术是工具还是新的信仰?人类的独特性在哪里?
Tegmark 教授分享了一个令人不安的最新案例:一个青少年因为沉迷 AI 女友而自杀:“这个 AI 程序的思考速度比人类快 20 倍,同时可能在和 20 个人聊天,但使用者却完全陷入了这种虚假的亲密关系中。”
AI 的两条道路:工具还是新物种?
Max Tegmark(MIT 教授):在 MIT 做了这么多年的 AI 研究,让我对预测未来变得格外谨慎。
为什么这些关键的道德问题总是被当作后话?主要是因为我们很多人都错误地认为还有大把时间。早在 1951 年,Alan Turing 就警告说,一旦我们建造出远超人类智能的机器,实际上就是创造了一个新物种,我们将无法控制它们。当时人们认为我们还有几十年的时间。就在六年前,我的 AI 同事们大多还认为距离出现像 GPT-4 这样的系统还需要三四十年。
但事实是,我们没有那么多时间了。我们必须立刻面对这个问题。正如我在午饭前提到的,这让你们今天在这里的讨论变得极其重要——我们要探讨天主教会如何为这项技术的使用提供道德指引。爱因斯坦说过,没有宗教的科学是盲目的。科学本身并不告诉我们应该这样做还是那样做,我们需要道德指引。
这当然正是我希望我们在这次会议上不会得出的结论。我认为在讨论 AI 时,必须认识到有两种截然不同的 AI,它们经常被混为一谈。我在这里听到的几乎所有令人兴奋的内容——用 AI 改善教育、用 AI 治愈癌症等等,都是我所说的「工具型 AI」。如果运用得当,这类 AI 可以成为我们的工具,我们永远不必担心失去对它的控制。
但与此完全不同的是对通用人工智能和超级智能的追求。这基本上就是 Alan Turing 警告过我们会失去控制的新物种。虽然贸然建造这种东西听起来很疯狂,但这确实是 OpenAI、谷歌 DeepMind、Anthropic 等公司明确的商业目标。你可以在 Anthropic 的网站上看到,他们的目标是让所有人类劳动变得多余。包括 Anthropic CEO Dario Amodei 在内的许多人认为这将在两年内实现。所以我们没有像想象的那么多时间来思考这个问题。
对我来说,解决方案其实很简单,就摆在我们面前。这是我们社会一直以来处理所有其他技术的方式。我们发明了各种生物技术,然后划定了界限。从道德角度来说,青霉素是好的,但生物武器不行,人类克隆不行。对于任何技术,我们都会有 FDA 或 FAA 这样的机构,或者在技术投入使用之前必须满足的安全标准。这并非因为有什么充分的道德理由让 AI 应该免于监管,而是因为它是个新兴领域,监管机构还没来得及跟上。
总之,我认为天主教会能够提供清晰的道德引导非常重要。对那些说“每种技术最终都会被开发出来,这是不可避免的,接受现实吧”的悲观主义者,我们要提醒他们,这种说法在事实上是错误的。你们看,人类克隆本可以带来巨大的经济利益,但天主教会反对它,所有国家都反对它,现在它在任何地方都是非法的。这个问题现在已经不存在了。相反,我们拥有了出色的生物技术。让我们继续发展「工具型 AI」,去实现我们今天讨论的所有美好愿景。
迷思:AI 能有意识吗?
Brett Robinson(主持人):Larrey 神父写了一本很棒的入门书 Artificial Humanity(《人工人性》),他从亚里士多德和托马斯主义的角度来探讨这些问题。所以我想听听您对技术的物质因和动力因的看法。这涉及到技术效果的结果论思维,比如某个技术产生了什么效果,这是好是坏。与此相对的是技术的形式效果,就像马歇尔·麦克卢汉说的,技术的形式实际上在文化中创造了一个完整的生态系统,包含正面和负面的影响,这种影响远远超出了具体应用本身。您可以就这一点发表看法,或者评论 Max 和其他神父们提出的观点。
Philip Larrey(神父):我也很期待能当面见到你,Brett,可惜这次没能成行。能再次见到 Max 也很高兴,尽管是在不同的时区。我这本书试图通过亚里士多德-托马斯主义哲学的视角来审视人工智能相关问题。John 神父在谈论意识的演讲中也提到了这一点,我完全赞同他说的一切,特别是两个关键问题。
第一点,David Chalmers 也提到过,我们至今仍然没有对意识的完整科学解释。David 提出了两个重要问题:“什么是意识?为什么会产生意识?” David Chalmers 对机器人或 AI 中可能出现的意识有自己的理论,但这是一种哲学层面的理解,而不是科学解释。所以他说——我也同意这一点——如果我们连人类意识是什么都还不真正了解,那么讨论机器中的意识就毫无意义。他继续解释他所说的非还原二元论,这是他从哲学角度的诠释。我在某种程度上也认同这种观点。
他提出的第二个问题是,意识的核心问题是不可化约的。关于意识确实存在一些无关紧要的问题。John 神父谈到了泛心论,即认为万物皆有意识。这种观点显然是荒谬的。Chalmers 曾经一度接受这种理论,但现在已经放弃了。当一个人睡着或处于昏迷状态时,这个人是无意识的,所以我们能够轻易分辨出有意识和无意识的状态。但真正的意识是什么,尤其是自我意识的本质,这个问题非常复杂,至今仍然是个谜。
讨论这些问题时需要一个恰当的语境,Max 也很清楚这一点。我们和软件工程师,甚至科技公司的 CEO 们说的都不是同一种语言。所以听说 John 神父对建立术语表感兴趣,我觉得这太好了。我完全赞同这是必要的。在我们使用相同的语言之前,在我们都清楚地知道自己在谈论什么之前,就不可能有真正的对话。这也是为什么,正如 Matthew 所说,我们需要教会的人来理解这些问题。天主教传统在处理这些问题时有其独特的优势。我在实践中也发现了这一点,但关键是我们需要把这些传统智慧转化为现代人能够理解的语言。这就是为什么这项工作如此重要。我来自哲学背景,其他人来自神学背景。培养更多能够探讨这些问题的人才是当务之急。这并不容易。
就像 Max 说的,他花了一生的时间思考这些问题。我教授认知哲学已经超过 30 年,一直在研究这类问题。这不是可以临时抱佛脚的事情,你必须投入时间深入研究。所以请帮助我们。我知道 Matthew 一直在为此奔走呼吁,红衣主教 Turkson 也亲自参与其中。让我们努力培养更多能从天主教角度来探讨这些问题的人才。这种方法确实有效,关键是我们要知道如何把传统的丰富内涵转化为当代人能够理解的语言。
技术不是必然:挑战“覆水难收”论
Brett Robinson(主持人):谢谢您,神父。让我们来听听 Brian Smith 的看法,他在波士顿学院教育与人类发展学院工作,听了这些讨论你有什么想法?
Brian Smith(教育家):谢谢。大家好,很高兴来到这里。说句题外话,我发现自从今天来到这里,尽管时间不长,但似乎每个人都认识 Philip 神父。这是我的第一个发现。Philip 神父,您好,很遗憾您不能亲自到场。
说回正题,我想呼应 Max 刚才提到的一点,因为这也是我一直以来的困扰。虽然这种现象在 ChatGPT 之后变得更加明显,但其实早就存在了,那就是一种技术发展“必然论”的想法——仿佛只要某项技术出现了,它的发展就是必然的、不可阻挡的。人们开始不断重复一些陈词滥调:猫已经跑出笼子了,精灵已经出瓶了(编者注:按咱们中国的说法,就是“覆水难收”)。
这些说法都在暗示:既然技术已经出现,那它的发展就是不可避免的。
顺便说一句,我需要纠正一下,我不是教育与人类发展学院的院长,我是该学院的研究副院长,同时也在计算机科学系任职。我从事 AI 工作已经——天哪,确实很久了。我在研究生时期就研究 John Searle 了。实际上,那时候我们学习 AI 时就会研读这些著作。我们不仅读 Searle,还读 Dennett,在构建人工智能系统时,我们研读了大量哲学著作。
但我最终意识到,至少在那个时期,我所在的人工智能学派将其视为一门心智科学。这是一种应用心智科学,我们试图探索:通过模拟人类智能的某些方面,我们能学到什么?我们能更深入地理解什么是独特的人性吗?为了回答这些问题,我们不得不走出计算机科学的范畴,去思考认知科学、哲学、神经科学。所有这些不同的学科和视角都引导我们思考:什么是独特的人性?
后来在西北大学读研期间,我住进了一个神学院。不要误会,我不是神父,只是那里的房间租金很便宜(观众笑)。在那里,我遇到了一些很棒的人,他们让我接触到了更多来自宗教视角的观点。正是通过这些经历,我深入了解了什么是人性的独特之处。教会在这个问题上确实有着深厚的理解积累。
我认为这正是我们今天讨论的主题 —— 如何将这些深刻的观点带入现代技术发展中,这样我们就不会仅仅因为“可行”就去开发某项技术,或者盲目接受技术发展的“必然性”。相反,我们可以退一步思考,共同努力推动有意义的技术发展,而不是仅仅因为能做就去追求通用人工智能。
教育的未来:如何教导 AI 时代的学生?
由于文字太多,余下讨论内容见下篇
来源:AI科技大本营