大话AGI来临之时,AGI将如何看待人类?

文摘   2024-09-06 11:03   湖南  


什么是AGI?我们在前面的文章中有讲过AGI,它是通用人工智能。什么概念呢?人类的智商一般在100左右,而AGI的智商至少在140以上,甚至后面会远远高于140。

人类的智商会被AGI给碾压。这时,会存在什么问题呢?

还记得2016年谷歌DeepMind推出的alphago吗,它不仅战胜了围棋九段的李世石,还战胜了世界围棋冠军柯基。在alphago之后DeepMind又出了alphazero。它们常常下出人们不能理解的棋招,但到最后又发现是这一步妙棋。

为什么会让人们有这种感觉呢?

因为不管是人类还是AI,每下一步棋,都会推算这一步在未来的五步或十步,然后一直沿着胜算更大的方向下棋,比如A和B下棋,A能看三步,而B能看五步,不出意外的情况下,B获胜的概率大得多。

当人与AI进行博弈时,AI推算的不是五步或十步,而是50步或100步!就是这么夸张!

这跨度已经超出了人类的理解范畴,因此人们常常会看到AI经常会下出人们不能理解但却是妙棋的棋招。

同理,当AGI的智商在140左右的时候,人类或许还能理解它们的行为,它们所给的建议或做的决定人们还能判断出好与坏。但人们会发现,AI做的决策大概率比人做的决策要更好。

这时人们可能会把更多的决策权交给AI,这样会更方便。这种决策权的转移是在人类自愿的情况下悄悄地发生。

然而技术是不断向前发展的。AGI也会进化,当它的智商超过200或300以上时。就会出现alpha zero这种现象,AGI做的决定有些是人类不能理解的了。但到后面发现这些决定又是那么的完美。直到这时人类可能对AI形成了完全的依赖。可能无形之中,很多的决策权已经转移给了AGI了。


反过来我们再以AGI的视角来看人类,在AGI的眼里,它们会发现,人类即愚蠢,又无聊,因为人类知道的东西它们都知道,人类不知道的东西,它们也知道。

这就好比一个三岁的小孩子在一个成年人面前,他所有的动作和想法你都能预判,他的很多思考在你看来是极为不成熟的。

更夸张的比喻是,一只猴子在你面地展示他的智商。而且他还不断的要求你按照他不成熟的想法来。这显得很的滑稽。

因此,未来。AGI在远远超越人类的智慧时,它们会不会对人类构成威胁,甚至把人类当猫一样养着?


别以为AGI离我们还很远,OpenAI已经规划好了路线图。AGI可能在2028年,甚至2026年就会到来。

所以这绝对是一个历史时刻。但是请注意,OpenAI曾发布过一份特殊的声明文件,我们从来没见过任何一家科技公司是这样说自家技术的--整个文件的重点不是吹嘘,而是一种忧患意识;他们忧患的既不是自家公司,也不是AGI技术,他们忧患的是人类怎么接受AGI。

OpenAI说:“AGI有可能给每个人带来令人难以置信的新能力;我们可以想象一个世界,所有人都可以获得几乎任何认知任务的帮助,为人类的智慧和创造力提供一个巨大的力量倍增器。”接下来,文件并没有继续说AGI有多厉害,而是反复强调要“逐渐过渡”:“让人们、政策制定者和机构有时间了解正在发生的事情,亲自体验这些系统的好处和坏处,调整我们的经济,并将监管落实到位。”并且说它部署新模型会"比许多用户希望得更谨慎”。

这等于是说,通往AGI的技术已经具备,但是为了让人类有个适应过程,OpenAI正在刻意压着,尽量慢点出。

人类需要一个适应过程,这也是这一篇声明的主题。基辛格等人在《人工智能时代与人类未来》这本书中表达的也是这个意思,AI对人类有一定的危险。

想象你有个特别厉害的助手,名叫唐三。他方方面面都比你强,你连思维都跟他不在一个层面上。你常常不理解他为什么要那样决定,但是事实证明他替你做的每一个决定都比你自己原本想的更好。久而久之,你就习惯了,你事事都依赖他。

唐三的所有表现都证明,他对你是忠诚的。但是请问,你真的完全信任他吗?


这就是为什么很多人呼吁,我们不应该把什么任务都交给AI,不能让AI自动管理社会。这些人建议,任何情况下,真正的决策权都应该掌握在人的手里。为了确保民主制度,投票和选举都必须由人来执行,人的言论自由不能被AI取代或者歪曲。

这也是为什么OpenAI在声明中说:“我们希望就三个关键问题进行全球对话:如何管理这些系统,如何公平分配它们产生的利益,以及如何公平分享使用权。”

我们正处于历史的大转折点上,这绝对是启蒙运动级别的思想和社会转折,工业革命级别的生产和生活转折--只是这一次转折的速度会很快。

回头看,转折带来的不一定都是好事。启蒙运动导致过打着理性旗号的最血腥的革命和战争;工业革命把农业人口大规模地变成城市人口,而那个时代的工人并不是很幸福、转折引发过各种动乱,但是最后社会还是接受了那些变化。AI又会引发什么样的动乱?将来社会又会有什么样的变化?我们会以什么方式接受?

基辛格等人有个观点很好,我们缺少AI 时代的哲学。我们需要自己的笛卡尔(Descarts)和康德来解释这一切


今天的分享就到这里,如果您有收获,请关注点赞支持下,感谢!

我们下一章节讲人类与AI的分工,即是这个问题的一部分答案!



AI科普小站
AI知识分享,AI工具分享,AI+行业应用讲解,帮助深度理解AI,提升AI的应用能力。
 最新文章