OpenAI前CTO的新项目悄无声息!
还记得曾轰动一时的OpenAI内部动荡吗?
当时,首席科学家Ilya Sutskever离开公司,高调宣布成立「安全超级智能」(Safe Superintelligence,简称SSI)研究所。
然而,这个备受瞩目的项目似乎陷入了诡异的沉默。
从喧嚣到沉寂
Ilya Sutskever曾是OpenAI的关键人物,以其在AI发展方面的洞见而闻名。人们原以为SSI的成立将掀起新一轮AI研究热潮,但事实却出人意料:
没有技术论文发表
没有重大公告
仅有一篇模糊不清的博客文章阐述使命
这种反差让人不禁疑惑:曾经公开演讲口若悬河的Sutskever,为何突然变得如此沉默寡言?
秘密研究进行时?
面对这种异常沉默,大家纷纷给出了自己的解读。
Derya Unutmaz (@DeryaTR_) 教授大胆推测:
我的猜测是,他们会保持沉默几年,然后揭示一个比其他人都强的AI。他们正在非常秘密地工作,有点像曼哈顿计划。他们想开发出一种AI,其能力将超出任何预测。
这个类比颇为有趣。
曼哈顿计划作为二战时期美国的绝密核武器研究项目,其保密程度之高、影响之深远,倒是确实和SSI的现状有些相似。
是策略还是限制?
然而,并非所有人都认为这种沉默是刻意为之。有人指出,这可能是受到法律或合同约束的结果。
Salvazion (@salvazion_) 提醒道:
有时候当他们离开一家公司时,必须签署一些文件,这些文件阻止他们接受采访或直接与另一家公司竞争。
这种说法倒也合乎道理。
高管离职后的竞业禁止协议在科技行业并不罕见,特别是涉及核心技术和商业机密的情况下。
计划本身就是保持沉默?
有趣的是,还有一种观点认为,这种沉默恰恰是SSI计划的一部分。
「这是计划的一部分」?
这话听着挺耳熟的!
Dickson Pau (@DicksonPau) 直言不讳地表示:
你什么意思?他创立SSI的全部意义就是在内部实现ASI(人工超级智能)之前不需要给出任何公开更新。
如果这种说法属实,那么SSI的沉默策略可能会持续相当长的一段时间。
毕竟,真正的「超级智能」之路漫长而曲折。
耐心等待还是过度期待?
面对SSI的持续沉默,社区似乎陷入了一种矛盾的心理状态。
一方面,人们渴望了解这个可能改变世界的项目进展;另一方面,又不得不接受可能需要长期等待的现实。
Britta | EcceAI (@shroomiverse) 指出:
这正是他几周前宣布的:长期内不会有任何动静,也不要期待更多。
未来是惊喜还是失望?
SSI的沉默给我们留下了无限遐想的空间。
它是否真的在秘密开发一个革命性的AI系统?还是仅仅是一个雄心勃勃但尚未成型的计划?
无论如何,Ilya Sutskever和SSI的动向将继续成为行业关注的焦点。也许在不久的将来,我们会迎来一个惊人的突破,彻底改变AI的格局。又或者,这将成为又一个昙花一现的技术泡沫。
在揭晓答案之前,我们能做的,也许就是保持警惕和期待,静待下一个重大时刻。
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!