声明:版权归原作者所有,除未经确认,都会注明作者和来源,如有异议,请联系我们,我们会立即处理
来源:中信出版社
在一个由科技驱动着一切向前推进的时代,几乎所有人都忙于发掘科技带来的红利,对技术进行反思,多少会被视为一种无病呻吟的“矫情”。谁都没有想到,带着公众本着人文精神对技术进行一场思想启蒙的,不是一位学者,而是数度登顶中国首富宝座的企业家——钟睒睒。
近一年以来,钟睒睒本人以及农夫山泉,多次成为网络争议的焦点。从产品定价到环保议题,不仅农夫山泉的股价应声滑落,钟睒睒个人也遭受了前所未有的网络暴力。他说,这些争议背后都隐藏着——算法推动的舆论失衡。11月下旬,一向低调的前首富钟睒睒在一场媒体活动中罕见地公开发声,被形容为“火力全开”,“炮轰”算法,让我们开始反思算法在现代社会中的角色。有人利用了算法,屏蔽了很多角度来的消息,制造单一叙事和恶意对立。因为你打开就是这样。很多恶是人为造成的,尤其是利用科学、科技手段、技术能力,那造成的恶,比普通人造成的恶要大。
“他们用算法放大情绪,把复杂的问题简单化,把不同的声音屏蔽掉。”这种行为不仅破坏了公平的舆论环境,也让公众陷入片面认知,而受害者往往都是底层民众。从这个社会热点切入,阿信想再次向你强烈推荐历史学家尤瓦尔·赫拉利的新书——《智人之上》。
我们现在所讨论的这一切,其实他在这本书中都进行了极为深刻的思考。
他以历史学家的洞见提醒我们,人类已经到了一个历史转折点:当下历史的重大进程,有一部分是由非人类智能的决定推动的。
当我们谈论科技乃至人工智能亦或是机器人对人类的威胁时,早就不是遥不可及的科幻电影中才会出现的娱乐情节,而是触手可及的现实,计算机网络的易错性正在变得越来越危险。
虽然计算机犯错原本不算什么,但当计算机成了历史推动者时,这些错误就可能带来灾难。
以算法为例,它早就已经开始默默参与甚至改写人类历史了……
2016—2017年,缅甸政府军与极端分子发动过一场针对缅甸罗兴亚人的种族清洗,杀害了7000-25000名罗兴亚人。事后联合国调查团的结论认为,通过散布充满仇恨的内容,脸书在这场冲突中扮演了“决定性的角色”。你可能会觉得,把这么多责任都归咎于脸书算法,或者更广泛地说,归咎于新的社交媒体技术,真的合理吗?如果有人用印刷机来散播仇恨言论,难道该怪谷登堡和印刷机吗?在争夺民众注意力的网络大战中,算法成了决定胜负的因素。算法能够选择让哪些内容出现在用户动态消息的顶端、推广哪些内容,以及推荐用户加入哪些脸书社团。算法本来可以选择推荐慈悲的布道或者烹饪课程,但最后却决定散播充满仇恨的阴谋论。但是为什么算法决定助长的是愤怒而不是慈悲呢?就算是对脸书批评最严厉的人,也不会觉得脸书的人类管理者就是想煽动大屠杀。
脸书位于加州的那些高管非但对罗兴亚人并无恶意,甚至几乎不知道罗兴亚人的存在。事情的真相更为复杂,但可能也更令人震惊。在2016—2017年,脸书的商业模式依赖于提升用户参与度,也就是用户在脸书上所花的时间与所做的活动(例如点赞、分享帖子给朋友)。只要用户参与度增加,脸书就能收集更多数据,卖出更多广告,在信息市场占据更大份额。此外,提升用户参与度能给投资人留下好印象,从而有利于推高脸书股价。用户在脸书停留的时间越久,脸书就越有钱。根据这种商业模式,人类管理者给脸书算法定了一个首要目标:提升用户参与度。随后,算法用几百万用户做实验,发现最能提升参与度的办法就是让人愤慨。比起慈悲的布道,充满仇恨的阴谋论更能提升人类的参与度。所以,为了追求用户参与度,算法就做出了一个致命决定:传播愤怒。企业在要求算法提高用户参与度的时候,就开始了一个走向偏激与极端的过程,这种情况不仅发生在缅甸,而且发生在全世界。例如,2012年,YouTube在全球的总观看时长约为每天1亿小时。但公司高层还不满足,于是给算法确立了一个充满野心的目标:到2016年,这一数据要达到每天10亿小时。经过对数百万人的实验,不断试错,YouTube的算法发现了脸书的算法也掌握的那套模式:只要激起人们的怒火,就能提升参与度,而走中庸节制的路线则行不通。于是,YouTube的算法开始向数百万观众推荐各种让人惊骇、愤慨的阴谋论,同时无视那些较为中庸、理性的内容。2016年,YouTube每天的总观看时长达到10亿小时。那些想博人眼球的YouTube主播发现,如果发布满是谎言、让人愤慨的视频,会受到算法青睐,视频会被推荐给大量观众,于是自己的人气会飙升,收益也会增加。相较之下,如果不刺激人们愤怒的情绪,坚持只谈事实,算法常常对他们的作品视而不见。经过几个月的强化学习,算法让许多YouTube主播都成了喷子。当然,并不是YouTube的算法编造了谎言或阴谋论,或者创作了偏激、极端的内容。至少在2017—2018年,这些内容还是由人类创作的。然而算法所做的,是鼓励人类往这个方向走,并且不断推荐这些内容,以最大限度地提升用户参与度。脸书、YouTube、TikTok等平台的管理者为了找借口,常常会说这些问题不是算法带来的,而是源于人性。他们表示,人性是各个平台上一切仇恨与谎言的源头。这些科技巨头认为,因为他们信守言论自由的价值观,所以审查人们表达真情实感真的很难。人类是非常复杂的生物,良好社会秩序会培养人类的美德,同时减少人类的消极倾向。然而社交媒体算法只把人看成矿井,想要“开采”更多的注意力。人类有丰富的情感,如爱、恨、愤慨、喜悦、困惑,但算法把一切简化成一件事——参与度。就像种族冲突从来都不是单方的错,是许多方面都出了问题,有许多责任方必须共同承担。有一点很清楚,对罗兴亚人的仇恨早在脸书出现在缅甸之前就已存在,而之所以会发生2016—2017年的暴行,最大的责任应落在相关的责任人身上。至于脸书的工程师与高管也该承担部分责任,他们写了算法的代码,赋予算法太多的权力,而没能对它们好好地管控。很重要的一点是,算法本身也逃不了干系。通过反复实验,算法学到了愤怒会提升参与度,而且在没有上级明确指示的情况下,算法自己决定要助长愤怒。这正是人工智能的典型特征──虽然它们是机器,但它们拥有自己学习与行动的能力。即使我们说这里算法只需要承担1%的责任,这也会是历史上第一个“部分归咎于非人类智能决策”的种族冲突事件。而且这不会是最后一次。现在,算法已经不局限于在有血有肉的极端分子创造出假新闻与阴谋论之后,再加以推送传播,在21世纪20年代初,算法已经能够自行制造假新闻与阴谋论。之所以有必要了解这一点,是因为目前的情况还在人类的掌控之中。虽然不知道还能持续多久,但目前人类仍有能力左右这些新的现实。为了能做出明智的决定,我们需要了解目前正在发生的事情。我们在编写计算机代码的时候,绝不只是在设计一个产品,而是在重新设计人类的政治、社会与文化,所以我们最好对政治、社会与文化都有一定的了解。我们已经到了一个历史转折点:当下历史的重大进程,有一部分是由非人类智能的决定推动的。正因如此,计算机网络的易错性才变得如此危险。计算机犯错原本不算什么,但当计算机成了历史推动者时,这些错误就可能带来灾难。