Editor's Note
原文作者
Arvind Narayanan:普林斯顿大学计算机科学教授和信息技术政策中心主任。
Sayash Kapoor :普林斯顿大学信息技术政策中心的博士研究生。
(以下节选并编译自《人工智能蛇油》一书第一章,内容有删减及重新组织)
想象一个世界,所有交通工具都被统称为“交通工具”,不论是自行车、汽车,还是火箭。人们会泛泛地争论交通工具是否环保,但可能彼此讨论的其实是不同的东西,导致混淆和误解。如今,人工智能(AI)就像这个“交通工具”概念,涵盖了多种不同的技术。比如,虽然 ChatGPT 和用于贷款评估的AI系统都被称为AI,但它们的工作原理、应用场景、主要用户乃至核心缺陷截然不同。
我们正面临一个概念泛化的问题,需要澄清AI的多样性,才能有效讨论它的影响。AI现在在全球范围内引发热议,舆论普遍认为人工智能会带来新的技术革命。随着AI技术的蓬勃发展,市场上既有真正推动技术革新的产品,也充斥着名不副实的AI伪技术。
AI Snake Oil 这本书借用了“蛇油”(Snake oil)这一英文俚语,来指代人工智能产业中良莠不齐的现象。“蛇油”,最早源于美国19世纪的一种虚假医疗产品,号称能治愈百病。后来“蛇油”逐渐成为一种比喻,用来形容虚假、无效、或被过度吹捧的产品或服务,通常是以夸大效果或故意误导消费者为目的。AI Snake Oil 这本书正是借此来形容人工智能中名不副实且被过度吹捧的技术。因为人工智能所涵盖的技术和应用范围太广了,绝大多数人都无法轻易分辨哪种AI有真材实料,哪种只是蛇油。这是一个重大的社会问题:如果我们想要充分利用AI的好处,同时规避可能的危害——很多危害已经产生了,就必须能分得清什么是谷,什么是糠。
这本书中的内容将帮助读者识别AI蛇油和AI炒作,辨别哪些技术是真正有用的,哪些只是虚假的炒作。书中介绍了核心概念,帮助读者区分生成型AI、预测型AI以及其他类型的AI。书中还提供了一些常识性的方法,来评估那些所谓的技术进步是否可信,从而以更具批判性的眼光去阅读关于AI的新闻,并注意到那些常常语焉不详的细节。加深对AI的理解,读者不仅可以满足对科技的好奇心,还能将其应用于实际生活和工作中,了解何时应使用AI,何时应拒绝。此外,书中还将探讨预测型AI因无法准确预测人类行为,既在当前无效,也会在未来无效的问题。本书旨在帮助读者深入理解AI的实际应用与局限性,让读者能够更理性地判断AI的作用,并避免被误导,推动AI的合理应用与规范发展。
何为AI?厘清概念与范畴
究竟何为人工智能?人工智能有多少类型?这个问题很难回答,因为关于什么是AI、什么不是,还没有共识。
关于计算机系统如何执行一项任务,我们通过三个问题,来确定是不是能给它贴上"AI"的标签。每个问题都包含一部分我们对"AI"的理解,但哪个都不是完整定义。
第一个问题是:这个任务是否需要人们付出创造性的努力或训练才能完成?如果是,而计算机可以完成,那它可能是AI。
第二个问题是:计算机系统所做出的行为是开发人员直接用代码指示的,还是间接产生的——比如通过学习示例或者从数据库中搜索得来?如果系统的行为是间接产生的,那它可能是AI。
第三个问题是:计算机系统是否或多或少能自主做出决定,而且能在一定程度上体现出灵活性并根据环境做出调整?如果能,那它可能是AI。
最终,一个应用能否被称作AI,很大程度上取决于其过往的使用情况、市场营销以及其他因素。几乎没有什么简单的定义能适用于所有AI。
人工智能的定义多元,且其应用领域广泛,技术类型各不相同。为了帮助我们理解AI的复杂性,有必要探讨目前广为认知的几种AI技术。通过这种分类方式,我们可以更清楚地看出不同AI技术的工作原理和应用场景,以及它们的优势和局限性。
目前比较受大众所熟知、且影响力较大的两种AI技术分别是生成型AI和预测型AI。
生成型AI主要用于内容的生成,如文本、图像和音频等。这类AI技术的代表是聊天机器人和图像生成器,它们可以快速生成看似合理的回答或逼真的图像。然而,尽管生成型AI发展迅速,它的成熟度和可靠性仍然不足,并且容易被滥用。例如,生成型AI常常生成不准确的新闻稿、书籍等内容,导致虚假信息泛滥。但生成型AI很有可能在未来被广泛运用,到那时,它就会泯于日常,人们视之为理所当然,而不再把它当作AI。
预测型AI则用于分析数据并对未来做出预测,以帮助决策。例如,预测犯罪、评估贷款申请人的信用或预测设备故障。然而,预测型AI的效果往往受到质疑,因为人类行为复杂多变,难以通过现有数据准确预测。这类AI技术常被夸大其作用,而实际上它们在很多情况下并不能提供有效的预测,反而导致错误决策和不负责任的自动化。因此,它很难也不应该成为日常的一部分。准确预测人们的社会行为不是一个可以解决的技术问题,而依据天然有缺陷的预测结果来决定人们的未来,在道德上不可取。
因此,面对人工智能这种双刃剑技术,更精细的处理方式是展开充分的讨论,辨别出哪些应用合适,抵制不当的使用,并制定防范措施,防止政府或私营部门滥用或误用。
AI伪技术的真相:误导、滥用与风险
生成型AI与受冲击的文娱业
2022年11月, ChatGPT 的发布把生成型AI送入公众视野。其突出的能力迅速掀起热潮,两个月内 ChatGPT 的用户就突破一亿。微软很快与开发者 OpenAI 合作,将聊天机器人整合到必应搜索引擎中,而谷歌在压力下匆忙推出了自己的聊天机器人 Bard (后更名为“双子座”)。然而, Bard 的宣传片中出现了明显的错误:它声称詹姆斯·韦布空间望远镜拍摄了第一张太阳系外行星的照片。然而,一位天文学家指出这一信息是不准确的。这个事件引发了谷歌股价暴跌,并暴露了聊天机器人在生成信息时可能会出现的误导性问题,因为它们依赖于训练数据生成文本,但未必能确保信息的准确性。聊天机器人的技术被大量滥用。人们发现,新闻网站发布的关于诸如金融咨询等重要话题的文章错漏百出,而这些稿件由AI生成。而即便在这些错误被指出之后,网站仍然继续使用这些AI工具。亚马逊上出现了大量AI生成的书籍,甚至包括蘑菇采集指南这样出错了会要人命的书。
其实,大部分知识行业都能受益于聊天机器人。本书作者也承认,自己在研究中广泛地用于AI工具:把它们当研究助手用,从琐碎的任务比如统一引用格式,到没有它作者自己甚至完成不了的任务——比如理解一篇陌生领域满是专业名词的论文。关键的问题是,要在使用聊天机器人工作同时,避开时时存在的陷阱,需要人为的努力和不断练习。随意滥用AI更为容易,因为那些想通过售卖AI生成的书籍快速赚钱的人,通常不在乎书的内容是否低劣。这正是聊天机器人容易被滥用的原因。
另一种让人着迷的生成型AI技术是从文字生成图像。到2023年中,用 OpenAI 的 Dall-E 、 Adobe 的 Firefly 和 Midjourney 的同名软件生成的图片据估计已经有超过10亿张。
不是只有业务爱好者热衷于图像生成器:娱乐应用软件才是大生意。游戏公司已经开发了可以跟玩家进行自然对话的游戏角色。很多修图应用现在加入了AI生成功能。比如说,你可以让应用给一张生日聚会图加上气球。
AI是2023年好莱坞罢工中的一个主要争论点。演员们担心制片厂会用他们的影音资料训练AI工具,最终开发出可以根据剧本生成新的影像的AI。换句话说,制片厂可以永久利用演员的形象和过去的劳动,而不用付一分钱。
长远来看,技术和法律结合起来可以缓解大部分的问题并发扬AI的好处。比如,有很多技术理念可以抑制聊天机器人编造信息,监管也可以遏制滥用。但短期之内,要适应一个有生成型AI存在的世界是很痛苦的,因为这些工具非常厉害,却不可靠。这就好像所有人都拿到了一个大规模无差别攻击武器,但我们的社会还没有相应的法律和监管来规范它的使用。
预测型AI:未来预测的隐患
短期内,生成型AI制造了很多社会成本和危机,但长期来说我们可以谨慎乐观,相信这种AI终将让人们的生活更美好。预测型AI则不同。跟生成型AI不同,预测型AI通常根本不管用。很多证据表明,预测一个人的人生走向是非常非常困难的。
这类工具不起作用的一个原因是它们无法得到关于很多关键因素的数据。另一个问题是,被评估对象往往有强烈的动机去规避系统规则。本书在第二章和第三章介绍了很多预测型AI的失败案例。将来这类技术会进步吗?很遗憾,作者认为不会。它的很多缺陷是与生俱来的。例如,预测型AI的一大诱人之处是自动化提高了决策效率,但这种高效恰恰会带来不负责任。我们必须对预测型AI公司的主张持谨慎态度,除非他们能提供足够强的证据。
与之类似的,面部识别技术,虽不属于预测型AI的范畴,却和预测型AI类似,已经引起人们的担忧。而人们对之的过度依赖,会导致由技术失误加深的人为失误。比如面部识别技术已经在美国造成了多起对黑人的错误逮捕,警方本有机会纠正这个技术错误,但技术在这个案例里成为了人为偏见的助推剂。技术使得人们在处理案件时忽略了其他的人为以及文化因素,而这些因素对公正地判案尤为重要。
AI炒作迷局:谁在背后操纵真相?
关于AI为什么会有这么多谣言、误解和迷思?因为研究者、企业和媒体都推波助澜,这让问题异常顽固。
首先,通过系统性地审核多个领域已发表的研究,作者发现大部分基于机器学习的研究都经不起检验。原因不都是研究伦理问题;机器学习本身就很难,研究者特别容易自欺欺人。课题越热门,质量似乎就越差。
但研究论文上错误的机器学习结论一般不会直接把不合格的AI产品送到市场上(一般贩卖商业AI蛇油的公司都知道自己卖的AI没用,并不是自己也被骗了。)但是,海量的错误信息还是会毁掉大众对AI的理解,因为媒体总是大肆鼓吹每一个所谓的突破。
再看看企业。被过度炒作的研究会误导公众,被过度炒作的产品则会直接危害公众。贩卖这些工具的企业在积极推销时,往往不会充分说明它们的效力如何,甚至它们到底有没有效力。
如果说学界和企业点燃了炒作的火花,媒体则是煽起了大火。每天我们都被所谓AI技术突破的消息狂轰滥炸。很多文章只是把媒体通稿拿来重写一遍就当作新闻了。也有记者不畏艰险做了精彩的调查工作,但他们只是少数逆流而动者。长远来看,新闻界能否监督大科技企业,取决于其能不能有更多不依靠点击率的资金来源。
识别真假AI:揭示伪技术与炒作
在今天,人工智能产品虽然已经具有了一定的功能,但它们也经常被夸大其作用,导致人们过度依赖,甚至完全替代了人类的专业判断。过度依赖AI,尤其是在进行关键决策时,可能带来严重的后果。因此,明确区分哪些是真正有效的AI技术、哪些只是被夸大的伪技术,迫在眉睫。本书就应运而生。在这本书中,作者将人工智能技术的危害性和真实性作为坐标的两个轴线,以此来展示AI蛇油、炒作及其潜在危害的分布情况,图中列出了一些人工智能典型应用,及其对人类或有利或有害的影响。
纵轴:从下到上依次是 "有效"(Works)到 "虚假"(Snake oil)。
横轴:从左到右依次是 "无害"(Benign)到 "有害"(Harmful)。
图中标注的应用:
自动完成功能(Autocomplete)
代码生成(Code generation)
库存摄影的图像生成(Image generation for stock photography)
内容审核(Content moderation)
预测内战(Predicting civil wars)
视频面试(Video interviews)
作弊检测(Cheating detection)
犯罪风险预测(Criminal risk prediction)
用于大规模监控的面部识别(Face recognition for mass surveillance)
根据这张图,本书的结构由此展开:
第二章探讨了自动化决策——一个AI,尤其是预测型AI开始大行其道的领域,预测谁会犯罪,谁会退学,等等。
第三章则回溯分析并解释了预测未来为什么如此困难。通过各个领域的案例,我们能够识别出预测型AI的局限性,这种局限性将在可预见的未来持续存在。
第四章揭示了生成型AI工作原理的神秘面纱,深入讨论了它会带来的潜在危害。
第五章聚焦公众广泛关注的AI引发的社会中的存在主义危机,探讨未来高度发达的AI可能会失控的问题。
第六章中讨论社交媒体中的内容审核和推荐算法的作用和挑战。
第七章则深入探讨了为何关于AI的迷思如此普遍。
最后一章中,作者提出了变革的方向,识别出了三条主要途径:
第一,企业需要设定基本原则,规范其构建和宣传其产品。监管在这里很重要,但也不能过度。
第二,是把AI融入社会。例如,在教育和儿童生活中,AI可以增益工作,而非完全替代劳动力。作者认为,很多关于AI的影响问题并非技术自身不可避免的后果,而是社会和政治的选择。
第三,应该关注“AI蛇油”背后的需求方,而非完全关注供给方。AI蛇油之所以诱人,是因为它的买家所在的机构已经崩溃,急需解决问题。比如,学校教师已经过劳,难以应对学生使用AI做作业带来的混乱。AI要求的全面改革教学和评估方式,他们做不到,只能求助于作弊侦测软件。但这些产品不起作用,反而导致一连串对学术不端的诬告,往往给学生带来灾难性的后果。
AI带来的社会问题,无法通过修复AI技术本身来解决。AI蛇油做的唯一“好处”在于,它让我们看到了隐藏的结构性问题。更广泛地说,AI引发的焦虑和担忧,尤其是其对劳动力市场影响,实质上反映了对资本主义深层次结构的担忧。我们必须尽快采取措施,强化现有的社会保障网络,并建立新的安全机制,以更好地应对技术进步带来的挑战和机遇。
本书目录
引言
Introduction
预测型AI的错误
How Predictive AI Goes Wrong
为什么AI无法预测未来?
Why Can't AI Predict the Future?
通向生成型AI的漫长道路
The Long Road to Generative AI
高级AI是存在主义威胁吗?
Is Advanced AI an Existential Threat?
为什么AI无法修复社交媒体?
Why Can't AI Fix Social Media?
为什么关于AI的迷思挥之不去?
Why Do Myths about AI Persist?
接下来我们应该怎么做?
Where Do We Go From Here?
作者简介
Arvind Narayanan
普林斯顿大学计算机科学教授和信息技术政策中心主任。其专长是人工智能等数字技术的社会影响。他的研究揭露了大企业如何收集和使用个人信息,以及机器学习会如何反应文化刻板印象等。2017年他获得了青年科学家总统奖(PECASE),这是美国政府授予刚刚开始独立研究生涯并在科学技术领域展现出卓越领导力的科学家和工程师的最高荣誉。
Sayash Kapoor
普林斯顿大学信息技术政策中心的博士研究生。他曾在Facebook工作,并在哥伦比亚大学和瑞士洛桑联邦理工学院从事AI研究。他曾获得国际计算机学会(ACM)的ACM FAccT会议最佳论文奖和ACM CSCW会议影响力认可奖。
- END -