沉默的SSI:Ilya Sutskever的「超级智能」计划去哪了?

旅行   2024-11-02 01:00   北京  

OpenAI前CTO的新项目悄无声息!

还记得曾轰动一时的OpenAI内部动荡吗?

当时,首席科学家Ilya Sutskever离开公司,高调宣布成立「安全超级智能」(Safe Superintelligence,简称SSI)研究所。

然而,这个备受瞩目的项目似乎陷入了诡异的沉默

从喧嚣到沉寂

Ilya Sutskever曾是OpenAI的关键人物,以其在AI发展方面的洞见而闻名。人们原以为SSI的成立将掀起新一轮AI研究热潮,但事实却出人意料:

  • 没有技术论文发表

  • 没有重大公告

  • 仅有一篇模糊不清的博客文章阐述使命

这种反差让人不禁疑惑:曾经公开演讲口若悬河的Sutskever,为何突然变得如此沉默寡言?

秘密研究进行时?

面对这种异常沉默,大家纷纷给出了自己的解读。

Derya Unutmaz (@DeryaTR_) 教授大胆推测:

我的猜测是,他们会保持沉默几年,然后揭示一个比其他人都强的AI。他们正在非常秘密地工作,有点像曼哈顿计划。他们想开发出一种AI,其能力将超出任何预测。

这个类比颇为有趣。

曼哈顿计划作为二战时期美国的绝密核武器研究项目,其保密程度之高、影响之深远,倒是确实和SSI的现状有些相似。

是策略还是限制?

然而,并非所有人都认为这种沉默是刻意为之。有人指出,这可能是受到法律或合同约束的结果。

Salvazion (@salvazion_) 提醒道:

有时候当他们离开一家公司时,必须签署一些文件,这些文件阻止他们接受采访或直接与另一家公司竞争。

这种说法倒也合乎道理。

高管离职后的竞业禁止协议在科技行业并不罕见,特别是涉及核心技术和商业机密的情况下。

计划本身就是保持沉默?

有趣的是,还有一种观点认为,这种沉默恰恰是SSI计划的一部分。

「这是计划的一部分」?

这话听着挺耳熟的!

Dickson Pau (@DicksonPau) 直言不讳地表示:

你什么意思?他创立SSI的全部意义就是在内部实现ASI(人工超级智能)之前不需要给出任何公开更新。

如果这种说法属实,那么SSI的沉默策略可能会持续相当长的一段时间。

毕竟,真正的「超级智能」之路漫长而曲折。

耐心等待还是过度期待?

面对SSI的持续沉默,社区似乎陷入了一种矛盾的心理状态。

一方面,人们渴望了解这个可能改变世界的项目进展;另一方面,又不得不接受可能需要长期等待的现实。

Britta | EcceAI (@shroomiverse) 指出:

这正是他几周前宣布的:长期内不会有任何动静,也不要期待更多。

未来是惊喜还是失望?

SSI的沉默给我们留下了无限遐想的空间。

它是否真的在秘密开发一个革命性的AI系统?还是仅仅是一个雄心勃勃但尚未成型的计划?

无论如何,Ilya Sutskever和SSI的动向将继续成为行业关注的焦点。也许在不久的将来,我们会迎来一个惊人的突破,彻底改变AI的格局。又或者,这将成为又一个昙花一现的技术泡沫。

在揭晓答案之前,我们能做的,也许就是保持警惕和期待,静待下一个重大时刻

👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章