关注“学霸Jolin聊成长”公众号,收看更多好文
OpenAI安全团队“超级对齐”解散?
你听说过“人工智能超级对齐”吗?大名鼎鼎的ChatGPT的创始公司OpenAI就有一个超级对齐团队。
首先和大家普及一下什么是超级对齐。超级对齐,也叫人工智能校准,它旨在是确保人工智能能够符合人类理想,目标和价值观,目的是当未来人类对人工智能系统的评估把握超过了那个可控的临界点后,人类仍然有可以有效地监督人工智能的系统。通俗点说,确保AI永远受到人的控制。
OpenAI在去年也就是2023年的7月宣布将投入20%的计算资源,花费4年的时间全力打造一个超级对齐(Superalignment)系统,这个系统被称之为“自动对齐器”。也就是用魔法来打败魔法,一方面继续研发更先进的人工智能,另一方面开发一个水平相当的AI对齐器,来实现让 AI评估并监督 AI。
之前宣布从OpenAI离职的原首席科学家伊利亚·苏茨克沃(Ilya Sutskever)就是超级对齐团队的两位负责人之一。更令人遗憾的是,另一位负责人,杨·莱克也随即宣布离职了。并且他在社交平台X上公开解释了他为什么离职。他写到原因是跟团队的分配资源的分歧有关。在OpenAI的领导层里,他和苏茨克沃更关注安全性等问题;然而过去几年,安全性已经让位于开发更耀眼的产品,超级对齐团队过去几个月一直在“逆风航行”,几乎拿不到好的计算资源,完成研究也越来越困难。
除了苏茨克沃和杨·莱克之外, 几个月来,OpenAI一直在流失关注AI安全的员工。自去年11月至今,OpenAI至少有7名注重安全的成员辞职或被开除。
这让人不禁担忧起人工智能的未来。
去年2月,当时身为OpenAI的首席科学家苏茨克沃就在推特上说自己看到了“当今最大的神经网络可能已拥有轻微的意识”,当时并未引起公众的重视,反而被指责为一种不高明的炒作。
不久后,苏茨克沃突然宣布加入公司的超级对齐部门。作为OpenAI的首席科学家下,可以说世界上没有任何一个人比他,更有机会察觉到AI失控的边界。
他的导师就是被称之为AI教父的Geoffrey Hinton 杰弗里·辛顿。辛顿现在75岁了,45年前他就获得了人工智能的博士学位,他2013年和他的一些学生包括苏茨克沃一起加入谷歌,开创了深度学习技术,直接推动谷歌的 AI发展,所以他被业界誉为“人工智能的教父”。
2023的5月,正当人工智能的发展如火如荼的时候, 辛顿做了一个惊人的决定,他宣布从谷歌离职了,不仅如此,他还公开直言:「我对自己的毕生工作,感到非常后悔。」
去年10月,辛顿面对美国的一个新闻杂志节目《60分钟》的采访,再次表示了对人工智能可能会接管人类的担忧。辛顿最后说他看不到一条保证安全的道路,他说我们正在进入一个充满不确定性的时期,我们正在应对我们人类从来没有处理过的事情。一旦机器人接管人类,后果无法想象。
现在你了解了“超级对齐”的来龙去脉,你也看到了辛顿和苏茨克沃这些作为世界上最懂AI技术的业内人士的这些反常的举动。你有没有像我一样也有一些隐隐约约的担忧?如果你还觉得没什么,我再告诉你一件事。被世人誉为“宇宙之王”的著名物理学家斯蒂芬·霍金,他早在去世前的2014年出席过美国的一个节目,当时他与主持人展开了“深刻而有意义的对话”。霍金非常肯定地对主持人说:“人工智能在并不遥远的未来可能会成为一个真正的危险。制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。人工智能也有可能是人类历史上最后的事件。“
我是Jolin,和你分享不一样的学霸思维!点击头像关注我,和你分享世界前沿的科技与教育!也欢迎预约我8月25日的直播,Jolin与你一起聊国内外教育。
更多生活趣事、养娃心得、人生感悟、前沿资讯等,我都分享在朋友圈!
扫码加我本人微信,与我深度链接👇
-END-
这是我以上原创内容视频号