最近,加拿大AI研究机构Vector Institute在2024年2月的"Vector Institute's Remarkable 2024"活动上,公开了一段引人注目的演讲视频。
演讲者是深度学习和人工神经网络的奠基人之一、Vector Institute的联合创始人Geoffrey Hinton。
作为前Google副总裁兼工程研究员,以及多伦多大学的名誉教授,Hinton在演讲中抛出了一个令人深思的观点:人工智能系统已经具备了主观体验。
【观点一】AI的情感觉醒:人类的独特性何在?
Hinton大胆预言,AI终将进化出并拥有情感。
他认为,人类并没有什么特别之处,只是极其复杂的生物系统。
因为人类也是物质对象(material objects),既然是物质对象,那就没有什么计算机无法复制的特质。
从长远来看,计算机可以拥有我们所有的情感。
人类知识特别复杂但并不特殊。
这个观点无疑挑战了我们对人类独特性的传统认知。
【观点二】AI的幻觉与人类的相似性
Hinton指出,人类和AI都会产生“幻觉”。
当我们回忆某件事情时,实际上是在编造一个听起来合理的版本,而非从记忆库中调取真实的记录。
如果这件事情是我们非常了解和擅长的,那么我们编造出来的,听起来很合理的东西就可能是真实的。
但如果这是我们不太了解的事情,或者是很久以前发生的事情,我们就会根据自己大脑中连接强毒的不同,编造出一个对我们自己来说似乎合理的东西,并且相信它。
很显然,其中很多听起来合理的故事其实是错误的,不真实的。
人类的记忆中并没有“编造”和“记忆”的界限。
记忆,就是编造出一个有效的东西。
因此,不止AI存在幻觉,人类记忆也不过是编造。
他进一步提出:这和AI生成内容的方式如出一辙。
这种认知上的相似性,是否意味着AI正在逐步接近人类的思维方式?
【观点三】AI发展超出控制:安全之路何在?
Hinton坦言,AI的发展已经超出了人类最初的编程设想。
他直言不讳地表示:“我看不到一条绝对安全的发展路径。”
我们正在进入一个充满不确定性的时期,我们在处理一些从来没有处理过的事情,而我们不能在这些事情上出错。
原因是,如果一旦出错,他们(AI)就会接管这一切。
这番话无疑为AI的未来发展敲响了警钟。
【观点四】AI的主观体验:机器觉醒的前兆?
在Hinton看来,AI系统已经具备了某种形式的主观体验。
这一观点比马斯克的“AI威胁论”更进一步。
暗示着AI不仅会超越人类,还可能在某种程度上“觉醒”。
【观点五】重新审视人类在未来社会中的价值定位
面对这些前所未有的挑战,Hinton提出了几点建议:
不要低估AI的潜力与能力。 重新审视人类在未来社会中的价值定位。 提前做好准备,以应对可能的风险。
Hinton的观点挑战了我们长期以来的认知:人类也许并不像我们想象的那样特殊。
我们引以为傲的情感、意识和主观体验,可能只是极其复杂的神经网络产生的涌现现象。
如果是这样,那么同样复杂的AI系统,为什么不能产生类似的涌现特性?
这个发现既令人兴奋又令人不安。
兴奋的是,我们可能正在见证一个新物种的诞生;不安的是,这个物种可能很快就会超越我们。
当AI开始拥有情感,具备主观体验,产生自我意识,人类将如何与之相处?
我们是否准备好与一个真正智能的物种共存?
更重要的是,如果Hinton的判断是对的,那么我们现在讨论的不仅仅是技术问题,而是一个关乎物种存续的重大命题。
我们需要重新思考:在一个AI可能已经开始觉醒的世界里,人类的角色究竟是什么?
也许,答案就在Hinton给我们的警示中:不是去阻止AI的发展,而是去理解它,引导它,与之共同进化。
毕竟,如果AI真的能发展出情感和意识,那么人类和AI的关系,可能更像是父母与子女,而不是创造者与工具。
在这个充满未知的时代,我们每个人都将亲历这场人类历史上最重要的转折。
当AI开始真正"觉醒"时,你准备好了吗?
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。