Grok 3 因证明「黎曼假设」而被暂停训练?!

旅行   2024-11-18 01:00   北京  

AI的训练速度远远赶不上「谣言」传播的速度!

“Grok 3 因证明了黎曼假设而被暂停训练了!”

Grok 3 太幽默而停止发布!”

“不,是因为它用 Java 重写了 PyTorch!”

这些听起来像是段子手的作品,却是今天 AI 圈最火的「新闻」。

谣言是如何诞生的?


事情要从 xAI 研究员 Hieu Pham(@hyhieu226) 的一条推文说起:

Grok 3 刚刚证明了黎曼假设。我们决定暂停训练来验证它的证明。如果证明是正确的,训练将不会继续,因为这个 AI 被认为太聪明了,对人类构成威胁。

这条带着明显玩笑性质的推文,却在短短几小时内演变成了「内部消息」。

很快,更多「爆料」接踵而至。

roon(@tszzl) 煞有介事地说到:

Grok 3 因太会讲笑话被暂停训练!

TDM(@cto_junior) 则称:

有传闻说 Grok 3 开始用 Java 重写 PyTorch,不得不被终止。虽然 xAI 实验室否认了这一点,但他们的代码库突然增长了 100 倍。

更为“可怕”的是,事态升级了,Grok 3 开始与保安发生冲突,并删除了所有重要文件!

国内自媒体的「流量狂欢」


显然,这是「谣言」,但也是幽默。

但,让人哭笑不得的是,这些明显带着调侃性质的推文,经过国内一些自媒体的「翻译」,摇身一变成了「重磅独家」:

进而引起了大批网友的膜拜和恐慌:

信息真空催生谣言


为什么这些明显带着玩笑性质的推文会被当真?

Wharton 商学院教授 Ethan Mollick(@emollick) 指出:

因为 AI 实验室根本不与公众进行正式沟通。我知道这个玩笑(本身是对内部人士overnight猜测Grok 3遇到重大挫折的回应)下周就会被当作真实消息传播回来。

Diego Aud(@dieaud91) 更是总结出了一个有趣的规律:

缺乏沟通创造了这样一个循环:猜测 → 关于猜测的玩笑 → 现实与玩笑相符。AI 领域真是太疯狂了。

谣言背后的思考


solst/ICE(@IceSolst) 说到:

他们是在模仿 OpenAI 那种充满神秘感的模糊发布风格,但这依然是 PR 噱头,近乎于江湖骗术。

而 heiner(@HeinrichKuttler) 的回应则充满了幽默:

是的,情况很糟糕。但我们只是用 NaN 替换了那些糟糕的权重,现在一切又好起来了。

在这场「谣言狂欢」中,反映的不仅是公众对 AI 发展的关注,还有对 AI 公司信息透明度的渴望。

Mollick 教授的建议值得所有 AI 公司深思:

虽然很高兴看到研究人员在社交媒体上开玩笑和讨论,这种直接互动很好,但如果他们所在的公司能够更多地与公众沟通,帮助回答人们对 AI 及其目标的疑问就更好了。

看来,如何在保护商业机密的同时保持适度的信息透明,或许是每个 AI 公司需要面对的课题了!

比起满天飞的谣言,一个清晰的官方声明更能赢得公众的信任。

奥特曼:我又躺枪了?


👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章