AI越来越像人,人却正变成工具?

创业   2024-11-05 21:30   北京  


内容来源:投稿。作者:尤瓦尔·赫拉利。


 责编 | 湫 排版 | 五月
第 8659篇深度好文:4575字 | 11分钟阅读

宏观趋势


在完成“人类简史三部曲”之后,历史学家尤瓦尔·赫拉利教授沉淀6年时间,推出了他对人类未来命运的最新思考——《智人之上》。


在当下这个时代,几乎人人都在谈论AI,但不同于那些我们每天在社交网络上刷到的二手观点,赫拉利对于AI有着极为深入的洞悉,而这种穿透力来自于其历史学家的深厚学养,他说:


人工智能可能成为我们物种的救世主,也可能成为我们灭亡的设计者,这取决于我们如何选择将其融入我们存在的结构中。


一、为什么要写作《人类简史》?


我想大多数人想到历史,都会认为那是过去的事情,是一系列人名、国王和真正,是发生在几百年、几千年前的事,和我们的生活毫无关系。出于某种原因,我们被迫在学校或者其他地方背诵这些东西。


对我来说,历史不是对过去的研究,历史是对变化的研究,是研究遥远过去的事物是如何塑造当今世界的。所有生活在一千年前的人都死了,他们不在乎我们怎么说他们,怎么想他们,但他们做过的事仍然塑造着我们的生活。



我认为研究过去不是为了记住它,而是为了从中解放出来,让我们在现在的生活方式上有更多选择,就像我们得到了过去遗留下来的东西,但是我们可以选择从中保留什么、不保留什么。


就像你一辈子都在背上扛着一个,又大又重的袋子,然后找到一个孩子说,“好,现在由你来扛,但在那之前,我们先打开袋子,看看里面有什么”。


也许我们不需要一直背负袋子里所有的东西,想想你自己现在的生活,你所做、所想的几乎所有事情,都是由几百年甚至几千年前发生的事情所决定的。


从吃的东西开始。比如,如果你喜欢喝咖啡,你应该感谢埃塞俄比亚人,他们在几千年前就最先开始驯化咖啡了。


如果你想给咖啡里加糖,你需要感谢新几内亚人,他们在6000多年前驯化了甘蔗。一直延伸到几千年来我们对男性和女性,以及家庭等等的观念。


数千年以来,世界上很多地方的人,都认为女性比男性低人一等,因此,女性不能上学,不能当教授,不能当政治家或法官,她们就应该待在家里带孩子。人们认为这就是自然,这就是现实。


如果你学了历史,你就会明白这不是自然,这是装在那个袋子里的东西。人们扛在背上,传给下一代,再传给下一代。而当你打开它往里看的时候就明白了,原来这一切这只是个故事,有人在2000年前发明了它。


而在上个世纪,我们摆脱了它,我们明白这不是真的。今天,在世界上大部分地区,女性都可以上学,上大学,成为教授,记者,政治家和法官。对我来说,这就是为什么我们需要学习历史,这样我们就不会成为过去的奴隶。


过去给了我们非常宝贵的东西,比如咖啡和糖,但它也给了我们一些不那么有价值的东西,比如这些关于男性和女性的奇怪想法,我们可以选择,什么该保留,什么该抛弃。


二、人类为何会失去对AI的控制?


关于AI,每个人都应该知道的最重要的一点是:AI不同于历史上以前的每一项技术,AI不是一种工具,它是一个主体。


以前所有的技术,从石刀到原子弹,都是我们手中的工具,我们能够自主选择和决定如何使用它们。你可以用刀去杀人,也可以用来切晚餐的沙拉,同一把刀,也可以用于外科手术拯救病人。



现在的AI是历史上第一个可以自己做决定的技术,它们的自主决定可能会夺走我们的权力,我们可能会失去对它的控制,它可以奴役并甚至可能摧毁我们。


自主武器系统可以自己决定炸哪个城市,决定杀谁,这不是未来科幻小说里的场景,这是我们在未来10年或50年需要担心的场景,它就发生在我们身边。


比如你去银行贷款,AI可以决定是否给你贷款;你申请大学,AI可以决定你是否被录取。


已经有一些AI决策对世界产生巨大影响的例子,其中最重要的例子可能是社交媒体算法。社交媒体算法是一个非常原始的AI,但是它们仍然可以自己做决定。


大概10年、20年前社交媒体开始兴起的时候,不管是脸书,油管还是抖音,它们为人类做了很多好事,但也带来了很多坏处。


问题在于,社交媒体公司给算法设定了一个目标,这个目标就是增加用户的参与度,他们想让更多的人在这个平台上花费越来越多的时间。为什么?


因为这样他们赚的钱更多。如果你花更多的时间在脸书上,那么平台就可以让你看更多广告,他们就可以收集更多的数据然后卖给其他人或用户来生产新产品。


所以增加用户参与度的目标听起来像是一件好事,人们参与其中好像也没有什么不对,但是人类告诉算法“要让人们在平台上花更长的时间”,接下来,算法开始就如何提高用户参与度在数百万用户中做实验。


它通过反复试验发现,抓住别人注意力最简单的方法就是按下仇恨按钮、恐惧按钮和贪婪按钮。


如果给人们看一些让他们非常生气的东西,他们就会一直看下去,然后告诉所有的朋友,这样用户参与度就会上升。即使不是真的,即使是假新闻,即使是阴谋论。



就算很多好事都在发生,只有这一个小的、不好的事情,也要把注意力集中在这个不好的事情上,因为这样才会获得用户参与,这就是算法开始做的事情,在世界各地都有。


最可怕的一件事发生在缅甸,脸书的算法故意传播关于缅甸罗兴亚人的仇恨阴谋论。缅甸人不都是坏人,他们在脸书上发布了很多内容,有些人教烹饪课,有些人教生物课,有佛教僧侣在布道,教人慈悲为怀,有些人散布阴谋论,然后算法做了一个决定:宣传阴谋论而不是生物课。


越来越多的人看到了这些由算法推荐的内容,并且变得非常恐惧、愤怒、仇恨,算法不是唯一的原因,但它确实在其中起了作用。


现在,没有人认为脸书上的用户是故意这么做的,没有人认为用户邪恶地想要造成这一切,人们根本不知道缅甸发生了什么,他们给了算法增加用户参与度的目标以及实现这个目标的算法,结果发现算法开始传播仇恨。


而且这还只是几年前很原始的AI,现在我们有了更强大的AI,虽然今天的AI看起来似乎也很原始,但在接下来的几年里,AI的发展速度会非常快。


如果把它想象成有机进化,比如动物的进化。我们今天看到的动物进化花了几十亿年的时间。一开始,只有像阿米巴虫这样的单细胞生物,恐龙、哺乳动物和人类的进化花了几十亿年的时间。


今天的AI就像阿米巴虫一样,非常原始,但AI的进化速度非常快,要比生物快数百万倍,所以从阿米巴虫到恐龙再到霸王龙可能只需要20年的时间。


如果ChatGPT和所有今天的这些算法只是阿米巴虫,你觉得恐龙会长什么样?而且这一切可能在20年后发生。所以当它们开始为我们做决定时,人类社会和整个世界将会发生什么?


AI不一定是邪恶的,它们只是极其强大,我们无法控制它们会做出什么样的决定,它们会发明什么东西


(亲密关系的争夺)是下一个阶段或下一个战线。之前是争夺注意力的战斗,好像到处都是内容,但人们的时间是有限的,所以有这样一种人们关注什么的注意力斗争。但接下来的战线将是亲密关系的争夺战。



《她》是我认为有史以来最好的科幻电影之一,因为它不是关于机器人跑来跑去射杀人的,它其实要深刻得多。因为AI正在发展和人类建立亲密关系的能力。


据我们所知,AI是没有任何自己的情感的,但它们正在学习如何解读人类的情感,因为它们非常擅长分析数据和识别模式,这就是我们识别情绪的方式。


最大的区别在于,一直以来人类都希望别人设身处地地理解我们。在我们的成长过程中,我们希望父母和老师能理解我们的感受,我们希望自己的丈夫、妻子能理解我们的感受。


AI没有自己的情感,它们从不生气,从不生病,也从不疲倦,它可以模拟感情,所以这是一段虚假的亲密关系。


三、AI究竟会给我们带来哪些危险?


危险有很多,其中一个容易理解的危险是它会被用于操控人类。


今天,算法已经在网上操纵我们了,主要是通过对某些内容进行优先排序。比如,有人发布了阴谋论,有人制作了一堂生物课,算法向我们展示了阴谋论,抓住了我们的注意力,以此操纵了我们。


下一个阶段是当你上网时,你和一个你以为是人类的对象建立了友谊。比如你在某个网站上认识了某个人,有很好的关系,他真的理解你,总是听你诉苦,所以你开始信任他,觉得自己交了一个好朋友,一个灵魂伴侣。但它不是人,是机器。


然后这个机器利用亲密的力量开始以一种非常微妙的方式操纵你,说服你购买某些产品,支持某些政治观点。


在过去,我们看到了那种争夺注意力的斗争,但亲密关系比注意力要强大得多,如果你想改变人们对政治或其他事情的看法,亲密关系就像超级武器。因为一个好朋友可以改变我们的观点,这是其他人无法做到的,所以这是一个危险。


更危险的是,人们一旦习惯了与机器人的这些关系后,与其他人形成关系就会变得更加困难。我们会变得更加孤独,更加依赖AI。



所以再一次提到这个问题,可能是一些人操纵了所有的这些AI,或者就像在缅甸事件中的脸书算法一样,背后没有人,只是AI在操纵我们,这并不是不可避免的。


关于技术我们必须记住的一点是,它不是决定论的,如果你可以以不同的方式使用它,我们仍然有能力塑造它,对AI进行监管。也许20年后就太晚了,因为到那时它们已经变得太强大了,但现在它们还在我们的掌控之中。


这就是为什么我们必须非常清楚潜在的危险,立刻做出正确的决定,关于如何发展这些AI和如何监管它们。例如,一个显而易见的规定是禁止AI冒充人类。


四、与AI共存,
我们需要培养哪些技能?


我想我要强调两项技能。


首先是灵活性,尤其是心理上的灵活性。今天世界的变化将比历史上任何时候都更剧烈,更迅速。所以没有人真正知道20年后的世界会是什么样子,就业市场会是什么样子,人们需要什么样的技能。


如果你专注于一个非常狭窄的范围,就像我说的,我会学习计算机编程,但也许20年后,AI编程比人类好得多,那学编程就变得没有必要。


所以最保险的赌注是,首先要有广泛的技能,不仅仅是智力技能,还有社交技能,还有运动技能,要有平衡的技能组合,要有灵活性,在你的一生中不断学习和改变。


纵观历史,预测未来从来都不是一件容易的事,也不可能做到。比如,如果你生活在1000年前的11世纪的中国,你不知道明年会发生什么,也许蛮族入侵,也许发生地震,各种各样的事情都可能发生,你无法预测。


但是人们知道即使在50年后,基本的技能也会是一样的。不管是谁掌控政治体制,还是任何情况在持续,人们都需要懂得收粮食和烤馒头,懂得骑马和射箭,这就是父母教给孩子的东西。


今天没有人知道20年后我们还需要什么技能,所以最重要的是培养一个灵活多变的头脑,这会贯穿我们一生。这是一方面。


另一方面是,我们正日益被海量的信息淹没,我们需要有能力分辨可靠和不可靠的信息。


我们应该怎么做呢?我们需要信息节食。


信息曾经是稀缺的,所以人们会吸收所有可得的信息。也许在整个村子里只有一本书,所以人们只会读这本书,因为这是唯一的东西。现在,信息超级丰富,这就会有很多人为的垃圾信息,就像垃圾食品。



这些垃圾信息被人为地充斥着仇恨,贪婪和恐惧等等。我们需要信息节食。


要意识到,你放进大脑中的信息是需要特别注意的,信息是大脑的食物,也不要吃太多,不要以为信息越多越好。绝大多数信息都是垃圾,消化那些我们本不必消耗的信息需要时间。


今天太多的信息都是垃圾信息,当我们的大脑充满垃圾信息的时候,我们需要给思想排毒。


所以,我们需要信息节食其中一个重要的部分是信息断食。


*文章为作者独立观点,不代表笔记侠立场。



好文阅读推荐

分享、点赞、在看,3连3连!

笔记侠
点我关注,与260万读者一起看透新商业本质。笔记侠,中国新商业知识干货共享社区,8000多篇干货笔记,宏观趋势、组织管理、商业模式等28个主题可精准搜索。
 最新文章