加里·F·马库斯的AI愿望清单和困境|“技术批评”能够驯服硅谷吗?

文摘   2024-11-17 20:00   北京  


埃文·塞林格称赞加里·马库斯的新书清晰阐述了如何阻止围绕生成式人工智能的疯狂和贪婪。但他质疑“技术批评”能否转化为实际改革。


作者:埃文·塞林格 2024 年 11 月 14 日

加里·F·马库斯:《驯服硅谷:如何确保人工智能为我们服务》, 麻省理工学院出版社,2024 年。248 页。

关于人工智能的讨论几乎总是两极分化,尤其是关于为 ChatGPT 等生成式人工智能产品提供支持的大型语言模型 (LLM) 的讨论。即时工程大师们发誓,我们正处于效率黑客时代的最佳时期。其他人则兴高采烈地欢迎通用人工智能 (AGI) 成为帮助人类应对最大挑战的灵丹妙药。另一边坐着怀疑论者——这个群体包括越来越多的教师,他们哀叹自己无法跟上学生的人工智能生成的论文,以及民间社会团体警告说,人工智能生成的虚假信息进一步威胁着我们脆弱的民主。


人工智能专家加里·马库斯的立场很明显。近年来,他多次被称为批评家—— “人工智能批评家”、“长期的人工智能批评家”、 “人工智能最响亮的批评家”和“人工智能的主要批评家”。作为纽约大学心理学和神经科学名誉教授,马库斯与他人共同创立了两家人工智能公司,并撰写了大量有关人工智能的文章,包括与恩内斯特·戴维斯合著的《重启人工智能:打造我们可以信赖的人工智能》(2019 年)。如果你一直在关注马库斯的新闻、浏览他的社交媒体帖子、阅读他的 Substack 或读过他的观点文章,那么他的新书《驯服硅谷:如何确保人工智能为我们服务》正是你所期待的。马库斯是一位愤世嫉俗的生成式人工智能批评家,他希望自己能成为善意的人工智能乐观主义者。

这本书快节奏的批评遵循了一种熟悉的方法。第一步:找出强大、贪婪、欺骗性的大型科技公司大肆宣传推理能力不佳的黑箱生成式人工智能工具所造成的(往往令人恐惧的)问题。第二步:表达希望人工智能能够通过坚定的行动主义和深思熟虑的政策为“社会带来净收益”。知情人士会从马库斯在美国参议院司法委员会人工智能监督会议上的亚伦·索尔金式证词中认出这种两部分结构,这段证词与各种TED 演讲和出版物一起,使他成为了一名摇滚明星。


这本书读起来就像一张最热门的专辑,里面收录了熟悉的曲目,重新包装以面向更广泛的受众。这本书愤世嫉俗的焦点可能会让一些人反感。那些相信提出公平论点的唯一可靠方法是考虑辩论的“双方”的人会发现两件引人注目的事情。首先,马库斯很少称赞那些在开发最广泛使用的生成式人工智能应用的公司工作的人,他只是顺便承认这项技术的积极用途。其次,这位批评家的道德清晰度可能会给人一种傲慢的感觉,他充满激情的语气让人感到厌烦。称科技公司为“邪恶”——这个词和这个想法我稍后会谈到——对于喜欢细微差别的读者来说可能很难接受。(公平地说,他在一定程度上指的是谷歌最初但早已被遗忘的座右铭:“不作恶。”)

马库斯已经敲响警钟一段时间了。他在 2022 年警告我们,像 ChatGPT 这样的工具“很容易被自动化,以前所未有的规模生成虚假信息”,并进一步警告说,虚假信息只是该技术可能成为我们的“侏罗纪公园时刻”的众多方式之一。然而,在我写这篇评论时,距离 2024 年美国总统大选不到一个月,商业人工智能检测器仍然“效果不佳”,联邦立法者尚未对竞选广告对人工智能的使用进行监管。情况的紧迫性显而易见,马库斯的沮丧和不耐烦是合理的。

如果你不了解人们对生成式人工智能及其领先的商业开发者的主要担忧,我建议你阅读《驯服硅谷》。对于那些有隐约不安感的人,这本书将详细解释具体的风险。当然,马库斯的想法并不是空穴来风,考虑技术批评的价值和演变提供了更广泛、更关键的背景。

¤ 过去和现在的技术评论家

什么是科技评论家?我从 20 世纪 90 年代末开始思考这个问题。我当时刚读了唐·伊德的文章《为什么不是科学评论家?》,直到那时,我才意识到,关于科学和技术的批判性对话(或者用伊德喜欢的术语来说,“技术科学”)不是先验反科学或反技术的。伊德是一位杰出的技术哲学家,他提出了一个令人信服的论点,即最好的科学和技术评论家对他们的主题充满“热情”,就像文学评论家对文学充满热情一样。换句话说,他们不是爱指手画脚的仇恨者。就马库斯而言,他表明自己是粉丝,而且充满热情。他告诉我们他“热爱人工智能”并且“迫切希望它能够成功”,并坚称人工智能的潜在优势——正如他经常提醒我们的那样,不应该与生成性人工智能混为一谈——“就像硅谷希望你相信的那样巨大”。

因此,科学技术批评不再是局外人、告密者之类的人的专利。现在,它在新闻业中已经“专业化”,借鉴了多个学科——包括哲学、社会学、法律、科学技术研究和媒体研究——并采取了一系列立场。它警告我们,技术中介实践可能会使人类的基本经验消失。它探讨了雇主如何利用技术武器来创造不公平和剥削性的工作条件。它直面了技术研究、开发和部署中的交叉正义问题。它探讨了大型科技公司如何威胁民主和人权。它揭露并驳斥了驱动太多针对残疾人的技术“解决方案”的健全主义假设。(这只是部分清单。)

由于科技批评的范围如此广泛,人们很容易想办法缩小这一类型。有些人可能会试图将对科技和资本主义的批评分开;我更倾向于将科技批评视为一个包容性的领域。这样做有两个好处。更广阔的视野有助于我们了解技术与社会、政治、道德和经济问题之间的联系有多么深刻——甚至是密不可分。它还有助于我们制定全面的战略来应对复杂且往往相互关联的挑战。对财务激励的担忧是马库斯关于潜在危害的规模和范围的核心。

¤ 企业堕入“邪恶”的代价

伊德事件发生 30 年后,科技批评已经根深蒂固,甚至制度化了。以马库斯的职业生涯为例。基于他长期以来对人工智能持怀疑态度的记录,他被邀请与 OpenAI 首席执行官山姆·奥特曼一起在 2023 年美国参议院司法小组委员会会议上作证。这意味着他不必闯入会议,用扩音器大声喊出他对真相(关于人工智能监管)的要求,最终“向当权者说话”。

伊德可能认为这样的平台化是一件好事:人们早就应该认识到科技批评的价值。当伊德赞扬科学和技术批评家时,他惊讶地发现,工程师和科学家很少承认他们工作的社会层面,更不用说认为自己对其社会影响负有任何责任。在获得来之不易的技术知识和技能后,他们太容易变得傲慢,本能地认为非科学家和工程师应该留在自己的领域。

不幸的是,制度化是一把双刃剑。拥有平台并不能保证任何有权势的人都会关心你所说的话。虽然马库斯曾经风光无限,但《驯服硅谷》的诞生源于对政客和科技公司的失望。这种动机强化了一个重要的政治教训,我们忘记了这个教训会很危险:有权势的人并不总是压制反对派。相反,让批评者感到被倾听,同时不放弃有意义的控制或实施实质性的改变,是一种久经考验的策略,可以淡化和吸收抵抗力量。是的,我们可能正处于技术批评的高峰时期,有无数的小组、出版物和课程致力于负责任的人工智能。但这并不意味着“科技抵制”已经成功。

马库斯将缺乏进展归咎于硅谷。不出所料,他挑选了最有实力、影响力和影响力的公司:OpenAI(马库斯强调,该公司早已放弃了其最初的非营利使命)、微软、谷歌和 Meta。如果你想知道为什么苹果在很大程度上获得了豁免,那不是因为马库斯认为它比其他公司更注重道德。相反,他认为苹果的核心业务是“性感的生产力工具”,这使得该公司没有足够的经济动机来吞噬我们的个人数据。

马库斯从与罗杰·麦克纳米(Facebook 的早期投资者之一,后来成为批判性著作《扎克:觉醒于 Facebook 灾难》(2019 年)的作者)的通信中,描绘了一幅熟悉的道德沦丧的画面。起初,硅谷领导人似乎抱有值得称赞的目标,比如知识民主化和加强社会联系。然而,最终,商业压力的现实变得难以忽视。创始人放弃了改变世界的理想主义,转而采取无情的方法来确保风险投资和最大化股东利润。进入监控资本主义,在这种制度下,大型科技公司找到了巧妙的方法,让互联网用户用他们的数据而不是订阅费来支付服务费用。他们承认,他们的方法会产生巨大的下游外部效应——至关重要的是,他们相信他们永远不必为此付出代价。通过这种方式,马库斯戏剧性地宣称,“对增长的永恒追求”已经导致“亲社会使命”被“邪恶”的堕落所取代。

令马库斯沮丧的是,科技精英们现在利用他们的影响力来影响监管。“目前硅谷最阴险的做法,”他说,“是一场破坏人工智能监管的运动。”当监管没有被妖魔化为对美国繁荣和人类生存的威胁时,公司就会尽最大努力将其纳入监管。通过精心策划的媒体和公众评论,科技领导层口头上强调了创造负责任和值得信赖的人工智能工具的根本重要性。然而,在幕后,他们的目标是监管俘获:花大价钱游说政客采取有利于企业的政策,同时创造一扇“旋转门”,让政府雇员在离开公共部门后获得高薪工作。

马库斯进一步指责硅谷通过夸大生成式人工智能来“操纵”舆论。他说,像奥特曼和马克·扎克伯格这样的科技领袖夸大了(如果不是撒谎的话)技术能力;淡化了(如果不是掩盖的话)技术限制;最小化(如果不是掩盖的话)风险和危害。他们还承诺提供可能永远无法实现的产品,并恶意将科技批评者描述为危险的、脱离现实的反动派。

简而言之,马库斯将硅谷描绘成一台依靠“煤气灯”和“欺凌”运转的宣传机器。他认为,硅谷最危险的伎俩之一就是说服公众和政客,生成式人工智能的进步很可能(如果不是不可避免的话)导致通用人工智能,而这一结果可能对人类构成生存威胁。通用人工智能往往被定义为具有人类或超人水平智能的人工智能系统,可以学习并将知识应用于各种任务。

对于 Marcus 来说,宣传这种 AGI 叙事有三个有害影响。首先,这种不诚实的叙事导致人们高估当前生成式 AI 的智能。Marcus 认为,这种扭曲和欺骗的观点通过“推高股价”使科技公司受益。其次,煽动对 AI 可能失控的末日恐惧会转移人们对更紧迫但不那么具有电影戏剧性的问题的注意力。第三,这种叙事错误地将据称正在开发 AGI 的科技公司定位为我们安全设计 AGI 的最大希望。毕竟——正如硅谷公司喜欢提醒我们的那样——他们有资源聘请最好的工程师和科学家。Marcus 认为,读者应该会觉得讽刺的是,表达如此严重担忧的公司对放慢速度以降低风险不感兴趣。

所有这些恶意行为会给我们带来什么后果?马库斯认为,这导致美国没有做好充分准备来应对“生成式人工智能的 12 大直接威胁”。这些威胁涉及范围广泛,例如,不良行为者利用人工智能驱动的内容传播政治虚假信息和操纵市场,出版商通过分享未经充分审查的人工智能生成的新闻而意外传播虚假信息,以及恶棍继续制造未经同意的深度伪造。马库斯还强调了人工智能用于生成诽谤性内容、侵犯隐私和加速网络犯罪、利用恶意黑客攻击和制造危险生物武器的问题。似乎这些可怕的事情还不够,马库斯进一步警告人们,人工智能削弱了知识产权,加剧了社会偏见,造成了破坏环境的能源成本,并导致对关键基础设施的过度依赖,而错误可能会带来灾难性的后果。由于马库斯提出了令人信服的论据,即每个威胁都是实质性的,因此很难不得出这样的结论:它们的集体影响可能是压倒性的。

¤ Marcus 的 AI 愿望清单和评论家的困境

马库斯对如何制止这种疯狂和贪婪有着清晰的认识——尽管在具体实施细节上他没有提及。他列出了一份法律和政治愿望清单,其中列出的想法并不新鲜。与大多数现任倡导者,甚至大多数立法机构一样,他认为我们需要更好的法律来保护我们的数据权利和隐私。我们需要促进透明度,揭示人工智能系统的工作方式。我们需要让人工智能开发人员对他们的工具造成的危害以及未来可能造成的危害承担更多责任。更独特的是,他坚持认为政府应该为人工智能素养计划提供充足的支持,并扩大对科学研究的资助,以开发更值得信赖、更有效的更安全的人工智能方法。此外,他希望立法者能够采取全面、分层的监管措施,并设立政府机构对人工智能进行独立监督——不仅要重新开放由不受科技公司利益左右的科学家组成的美国技术评估办公室,还要建立一个新的“美国人工智能机构”——该机构的职权范围可能比美国人工智能安全研究所要广得多。由于人工智能具有全球影响,马库斯进一步认为,我们需要一个致力于国际人工智能协作治理的新机构。马库斯还谈到了更广泛的技术资本主义批评方式,他补充说,“建立全民基本收入是正确的做法”,以解决“人工智能开始减少就业机会和工资而导致的日益严重的不平等”。

马库斯意识到法律和政策并不能解决所有问题。因此,除了他深远的治理建议之外,他还呼吁进行重大的文化变革——从停止对富有但鲁莽的科技公司首席执行官的广泛崇拜,到致力于通过抵制不负责任的设计和货币化的生成式人工智能产品向科技公司施加经济压力。

我们该如何看待这一切?许多这样的提议可能会被集中讨论,其可行性受到质疑。例如,一个新的国际人工智能机构在理论上听起来不错。但在实践中,这种权力集中充满了复杂的挑战——从可能被特殊利益集团控制,到在平等合作的幌子下进一步强化长期存在的权力不平衡。同样,假设全民基本收入可以减少社会不稳定,原则上,从对最富有的公司和个人征税中提取资金是公平的。考虑到政治已经变得如此分裂,我们仍然应该预料到那些将其描述为产生依赖性的施舍的人会大规模反对——他们将拥有富有和强大的支持者。或者以马库斯的建议为例,让人们停止使用不道德设计和经济剥削的生成人工智能;正如我们在之前呼吁有良心的数字消费主义时所看到的那样,便利几乎总是胜过伦理信念。

人们可能会觉得有必要在许多方面赞扬马库斯,比如他拒绝发出含糊不清、最终毫无意义的呼吁,要求社会批判性地重新思考其对待生成式人工智能的方式。与此同时,人们也可能得出这样的结论:马库斯没有给我们足够的证据来相信他的想法在实践中是有效的。毕竟,他试图改变的系统现在似乎强大到足以削弱甚至吸收任何挑战。

值得赞扬的是,马库斯仍然敦促我们保持希望,相信渐进式、渐进式的进步是可能的,并且可以有意义地挑战有缺陷的体系并修复过时的政策。以他提出的“分层”监督为例。他完全正确地呼吁制定明确有效的政策来解决人工智能模型在广泛传播和使用之前和之后的潜在问题。鉴于这一目标,他也正确地认为持续的高质量审计必须在治理中发挥关键作用。但细节呢?马库斯希望看到类似 FDA 对新医疗设备和药物进行监管的先发制人的方法——换句话说,他支持对人工智能进行许可要求。他还提醒我们,FDA 可以在制药公司的产品商业化后对其进行审计。简而言之,他设想的政府会一直支持我们。

不幸的是,FDA 并不是一个好的参考点。在当今的政治环境下,政府机构不可能筹集到足够的资金来满足 Marcus 所指出的需求。话虽如此,但这并不是“要么做大,要么回家”的问题。有迹象表明,质量审计实践和相应的法律要求可能会随着时间的推移而出现。这些可能从地方举措开始,比如纽约市开创性的法律,要求对自动化就业决策工具进行偏见审计。这项新立法存在许多问题;但至关重要的是,它可能是更好立法的开始。或者,新的欧盟人工智能法案提供了一个有益的治理示例,它优先监督风险最高的系统,并在产品进入市场之前和之后实施有针对性的、有意义的政府监督。

当然,我们能否实现这一目标——或者实现其他目标——将取决于政治意愿。政治意愿的重要性体现了批评者的困境。马库斯的专业声音为日益增多的对硅谷权力的批评增添了权威。他所代表的科技批评已经取得了长足的进步,达到了制度化的程度——但尖锐的批评与切实的、挑战权力的改革之间仍然存在巨大的鸿沟。

LARB 撰稿人
埃文·塞林格是罗彻斯特理工学院的哲学教授。

https://lareviewofbooks.org/article/can-tech-criticism-tame-silicon-valley/

科技世代千高原
透视深度科技化时代™ 探寻合意的人类未来
 最新文章