《人类简史》作者尤瓦尔·赫拉利谈人工智能威胁
文摘
文化
2023-05-09 12:36
北京
英国《经济学人》网站于2023年4月28日发表题为《尤瓦尔·赫拉利主张,人工智能已经侵入了人类文明的操作系统》的文章。以下观点不代表任何译者立场,原文链接请点击查看原文,现将全文翻译如下:历史学家、哲学家尤瓦尔·赫拉利主张,人工智能已经侵入了人类文明的操作系统计算机时代开启以来,人类一直深深恐惧着人工智能(AI)。以前,这种恐惧主要是害怕机器通过物理手段杀害、奴役或取代人类。但过去几年出现的新AI工具,以一种意想不到的方向威胁着人类文明的生存。AI在运用和生成语言方面获得了惊人的能力,无论是利用文字、声音还是图像,都可以说AI攻破了我们文明的操作系统。语言几乎构成了人类文化的全部。例如,人权并没有刻在我们的DNA中,而是我们通过讲故事和编写法律来创造的文化产品。神祇也不是物质现实,而是我们通过发明神话和编写经文来创造的文化产品。钱也是文化产品。钞票不过是彩色的纸片,目前超过90%的货币甚至都不是钞票,只是存储在电脑中的数字信息。钱的价值来自于银行家、财政部长和加密货币大佬跟我们讲的故事。加密货币史上最大破产案FTX公司的创始人山姆·班克曼·弗里德, 血液检测公司的女骗子伊丽莎白·霍姆斯和搞出500亿美元庞氏骗局的伯纳德·劳伦斯·麦道夫,他们都不怎么擅长创造真正的价值,但他们都能说会道会讲故事。那么如果非人的智能变得比普通人更会讲故事、会谱曲、绘画以及编撰法律和神话,会发生什么呢?说起ChatGPT等新型AI工具时,人们往往会提到学生用AI写作业,那么,如果孩子们使用AI在2024年美国总统大选中制造大量政治内容,制造假新闻,创造狂热思想的经文,又会发生什么呢?近年来,有一个叫QAnon的狂热团体聚集在各大平台以q drops冠名的匿名贴子下,他们追捧、阐释这些贴文,就好像神圣的经文。我们目前所知的所有q drops都是人类编写的,机器只是帮助传播它们。但在未来,我们可能会看到历史上第一个崇拜非人类智能编写经文的邪教团体。历史上,各个宗教都宣称自己的圣书来源并非人类,不久的将来,这可能成为现实。在世俗层面上,我们也可能很快就会与“人”长时间在线讨论有关堕胎、气候变化或者俄乌战争长时间在线讨论,我们以为对面是人类,但实际是AI。问题在于,我们花时间尝试改变AI发表的意见毫无意义,但AI却可以精确推敲信息,精准影响我们的想法。熟练掌握语言后,AI甚至可以与人建立亲密关系,并利用亲密关系的力量来改变我们的看法和三观。虽然没有迹象表明AI有自己的意识或情感,但只要AI能让人们对它产生情感上的依赖,就足以建立虚假的亲密关系。2022年6月,谷歌工程师布莱克·莱莫因公开宣称,他正在研究的AI聊天机器人Lamda已经具备了“感情”,这项有争议的说法导致他失去了工作。这件事最有趣的地方不是莱莫因的说辞,而是他愿意为AI聊天机器人失去收入可观的工作。如果AI可以让人们为它冒险,那它还能诱导人们做什么呢?
在政治信息战中,亲密关系是最有效的武器,而AI刚刚获得了大规模制造亲密关系的能力。过去十年间,社交媒体已然成为争夺人类注意力的战场。通过新一代AI,战斗的前线正从注意力转向亲密关系。AI之间将展开争夺,生成虚假亲密关系来说服我们为某些政客投票或者购买特定的产品,这对人类社会和心理产生何种影响尚未可知。
即使没有创造“虚假亲密”,新的AI工具也会给我们的观点和三观带来巨大影响。人们可能会把某一个AI顾问作为一站式、全知的神谕,也难怪谷歌感到恐慌。能问神谕的事情还有什么必要去搜索呢?新闻和广告行业也应该感到惶恐,能问神谕的事情还有什么必要看报纸呢?还有广告行业,能问神谕该买什么还需要广告做什么呢?即使这些场景也无法反映大局。我们要谈的可能就是人类历史的终结,注意,不是历史的终结,而是人类支配下的这部分历史的终结。历史是一系列互动,存在于生物与文化之间,存在于生物需求和欲望之间,比如食物和性,存在于宗教和法律等文化的创造物之间。历史是一个过程,在这个过程中法律和宗教塑造食物和性。如果AI接管文化并开始创造故事、旋律、法律和宗教,历史将会发生什么变化?以前的工具,如印刷机和广播,有助于传播人类的文化思想,但它们从未创造过自己的文化思想。AI是根本不同的,AI可以创造全新的思想,全新的文化。首先,AI可能会在初期模仿它的人类原型,但随着时间推移,AI文化将会去探索人类未曾到达过的地方。几千年来,人类一直生活在其他人的梦里。未来几十年内,我们可能会发现自己生活在一个陌生智能的梦中。对AI的恐惧仅仅从几十年前才开始困扰人类,但几千年来,人类一直被更深层次的恐惧所困扰。我们一直重视故事和形象对我们思想的操纵和产生幻觉的能力。因此自古以来,人类就害怕被困在幻象的世界中。17世纪,笛卡尔担心有恶魔可能将他困在幻觉的世界里,创造出他看到和听到的一切。在古希腊,柏拉图讲述了著名的《洞穴寓言》,里面有一群人被链在一个洞穴里,终其一生面对一面空白的墙壁,一块屏幕。囚徒们看着不同的投影,误将这些幻象当作现实。在古印度,佛教和印度教的贤者们指出,所有人都生活在摩耶里,即幻觉的世界。我们通常以为是现实的东西,往往只是我们心中的虚构。人们可能因为信仰这种或那种幻象而发动战争,杀死他人或者愿意被人杀死。AI革命正在让我们面对笛卡尔的恶魔,柏拉图的洞穴和印度的摩耶。不小心的话,我们可能会被困在幻象的帷幕后面,无法掀开,甚至都意识不到那里有幕布存在。当然,新的AI力量也可以用于良善目的。我不会深入讨论,因为开发AI的人已经谈得足够多了,像我这样的历史学家和哲学家的工作是指出危险。不过毫无疑问,AI能够帮助我们做很多事情,比如寻找新的癌症治疗方法、寻找解决生态危机的方法等等。我们面临的问题是,如何确保新的AI工具被用于善而非恶,要做到这一点,我们首先需要了解这些工具的真正能力。
1945年之后,我们已经知道核技术可以为人类带来廉价能源,但也可以摧毁人类文明。因此,我们重塑了整个国际秩序来保护人类,并确保核技术主要用于造福人类。现在,我们必须应对一种新的大规模毁灭性武器,它可能会摧毁我们的心理和社交世界。我们尚且有能力管制新的AI工具,但必须迅速行动。虽然核武器不能创造更强大的核武器,但AI可以使AI指数级进化。首先最重要的一步是要求强大的AI工具在发布到公共领域之前对其进行严格的安全检查。正如制药公司不能在测试短期和长期副作用之前发布新药物一样,科技公司也不应在确保安全之前发布新的人工智能工具。我们需要针对新技术的食药监局,而且早就需要这样的机构了。不经规范的AI工具投放会导致社会混乱,毁掉民主。民主是一种对话,而对话依赖语言。如果AI入侵语言,它可能会摧毁我们进行有意义对话的能力,从而毁掉民主。
我们刚刚在地球上遭遇了一个陌生智能。我们对它知之甚少,只知道它可能会摧毁我们的文明。我们应该停止在公共领域不负责任的AI工具投放,并在AI管理我们之前先规范好AI。我首先建议必须强制披露AI身份,如果我与某人对话的时候无法确定对方是人还是AI,那么这就是民主的终结。
尤瓦尔·诺瓦·赫拉利是历史学家、哲学家,也是《人类简史》、《未来简史》和儿童系列《势不可挡的人类》的作者。他是耶路撒冷希伯来大学历史系讲师,也是社会影响力公司智慧之船的联合创始人。本文刊印于纸质版杂志客座文章版块,标题为为“尤瓦尔·诺瓦·赫拉利认为人工智能已经破解了人类文明的操作系统”