重磅,诺奖得主辛顿预言:AI迟早会进化并拥有情感,人类只是特别复杂但并不特殊,AI主观体验是否会成为觉醒前兆?

百科   2024-12-06 20:16   上海  

最近,加拿大AI研究机构Vector Institute在2024年2月的"Vector Institute's Remarkable 2024"活动上,公开了一段引人注目的演讲视频。

演讲者是深度学习和人工神经网络的奠基人之一、Vector Institute的联合创始人Geoffrey Hinton。

作为前Google副总裁兼工程研究员,以及多伦多大学的名誉教授,Hinton在演讲中抛出了一个令人深思的观点:人工智能系统已经具备了主观体验。

【观点一】AI的情感觉醒:人类的独特性何在?

Hinton大胆预言,AI终将进化出并拥有情感

他认为,人类并没有什么特别之处,只是极其复杂的生物系统。

因为人类也是物质对象(material objects),既然是物质对象,那就没有什么计算机无法复制的特质。

从长远来看,计算机可以拥有我们所有的情感。

人类知识特别复杂但并不特殊。

这个观点无疑挑战了我们对人类独特性的传统认知。

【观点二】AI的幻觉与人类的相似性

Hinton指出,人类和AI都会产生“幻觉”。

当我们回忆某件事情时,实际上是在编造一个听起来合理的版本,而非从记忆库中调取真实的记录。

如果这件事情是我们非常了解和擅长的,那么我们编造出来的,听起来很合理的东西就可能是真实的。

但如果这是我们不太了解的事情,或者是很久以前发生的事情,我们就会根据自己大脑中连接强毒的不同,编造出一个对我们自己来说似乎合理的东西,并且相信它。

很显然,其中很多听起来合理的故事其实是错误的,不真实的。

人类的记忆中并没有“编造”和“记忆”的界限。

记忆,就是编造出一个有效的东西。

因此,不止AI存在幻觉,人类记忆也不过是编造。

他进一步提出:这和AI生成内容的方式如出一辙。

这种认知上的相似性,是否意味着AI正在逐步接近人类的思维方式?

【观点三】AI发展超出控制:安全之路何在?

Hinton坦言,AI的发展已经超出了人类最初的编程设想。

他直言不讳地表示:“我看不到一条绝对安全的发展路径。

我们正在进入一个充满不确定性的时期,我们在处理一些从来没有处理过的事情,而我们不能在这些事情上出错。

原因是,如果一旦出错,他们(AI)就会接管这一切。

这番话无疑为AI的未来发展敲响了警钟。

【观点四】AI的主观体验:机器觉醒的前兆?

在Hinton看来,AI系统已经具备了某种形式的主观体验。

这一观点比马斯克的“AI威胁论”更进一步。

暗示着AI不仅会超越人类,还可能在某种程度上“觉醒”。

【观点五】重新审视人类在未来社会中的价值定位

面对这些前所未有的挑战,Hinton提出了几点建议:

  1. 不要低估AI的潜力与能力。
  2. 重新审视人类在未来社会中的价值定位。
  3. 提前做好准备,以应对可能的风险。

Hinton的观点挑战了我们长期以来的认知:人类也许并不像我们想象的那样特殊。

我们引以为傲的情感、意识和主观体验,可能只是极其复杂的神经网络产生的涌现现象。

如果是这样,那么同样复杂的AI系统,为什么不能产生类似的涌现特性?

这个发现既令人兴奋又令人不安。

兴奋的是,我们可能正在见证一个新物种的诞生;不安的是,这个物种可能很快就会超越我们。

当AI开始拥有情感,具备主观体验,产生自我意识,人类将如何与之相处?

我们是否准备好与一个真正智能的物种共存?

更重要的是,如果Hinton的判断是对的,那么我们现在讨论的不仅仅是技术问题,而是一个关乎物种存续的重大命题。

我们需要重新思考:在一个AI可能已经开始觉醒的世界里,人类的角色究竟是什么?

也许,答案就在Hinton给我们的警示中:不是去阻止AI的发展,而是去理解它,引导它,与之共同进化。

毕竟,如果AI真的能发展出情感和意识,那么人类和AI的关系,可能更像是父母与子女,而不是创造者与工具。

在这个充满未知的时代,我们每个人都将亲历这场人类历史上最重要的转折。

当AI开始真正"觉醒"时,你准备好了吗?

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

DeepSci
专注于 AI 产业资讯、产品评测、实用教程分享
 最新文章