AI的训练速度远远赶不上「谣言」传播的速度!
“Grok 3 因证明了黎曼假设而被暂停训练了!”
“Grok 3 因太幽默而停止发布!”
“不,是因为它用 Java 重写了 PyTorch!”
这些听起来像是段子手的作品,却是今天 AI 圈最火的「新闻」。
谣言是如何诞生的?
事情要从 xAI 研究员 Hieu Pham(@hyhieu226) 的一条推文说起:
Grok 3 刚刚证明了黎曼假设。我们决定暂停训练来验证它的证明。如果证明是正确的,训练将不会继续,因为这个 AI 被认为太聪明了,对人类构成威胁。
这条带着明显玩笑性质的推文,却在短短几小时内演变成了「内部消息」。
很快,更多「爆料」接踵而至。
roon(@tszzl) 煞有介事地说到:
Grok 3 因太会讲笑话被暂停训练!
TDM(@cto_junior) 则称:
有传闻说 Grok 3 开始用 Java 重写 PyTorch,不得不被终止。虽然 xAI 实验室否认了这一点,但他们的代码库突然增长了 100 倍。
更为“可怕”的是,事态升级了,Grok 3 开始与保安发生冲突,并删除了所有重要文件!
国内自媒体的「流量狂欢」
显然,这是「谣言」,但也是幽默。
但,让人哭笑不得的是,这些明显带着调侃性质的推文,经过国内一些自媒体的「翻译」,摇身一变成了「重磅独家」:
进而引起了大批网友的膜拜和恐慌:
信息真空催生谣言
为什么这些明显带着玩笑性质的推文会被当真?
Wharton 商学院教授 Ethan Mollick(@emollick) 指出:
因为 AI 实验室根本不与公众进行正式沟通。我知道这个玩笑(本身是对内部人士overnight猜测Grok 3遇到重大挫折的回应)下周就会被当作真实消息传播回来。
Diego Aud(@dieaud91) 更是总结出了一个有趣的规律:
缺乏沟通创造了这样一个循环:猜测 → 关于猜测的玩笑 → 现实与玩笑相符。AI 领域真是太疯狂了。
谣言背后的思考
solst/ICE(@IceSolst) 说到:
他们是在模仿 OpenAI 那种充满神秘感的模糊发布风格,但这依然是 PR 噱头,近乎于江湖骗术。
而 heiner(@HeinrichKuttler) 的回应则充满了幽默:
是的,情况很糟糕。但我们只是用 NaN 替换了那些糟糕的权重,现在一切又好起来了。
在这场「谣言狂欢」中,反映的不仅是公众对 AI 发展的关注,还有对 AI 公司信息透明度的渴望。
Mollick 教授的建议值得所有 AI 公司深思:
虽然很高兴看到研究人员在社交媒体上开玩笑和讨论,这种直接互动很好,但如果他们所在的公司能够更多地与公众沟通,帮助回答人们对 AI 及其目标的疑问就更好了。
看来,如何在保护商业机密的同时保持适度的信息透明,或许是每个 AI 公司需要面对的课题了!
比起满天飞的谣言,一个清晰的官方声明更能赢得公众的信任。
奥特曼:我又躺枪了?
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!