搞钱和安全同等重要!
AGI全称为Artificial General Intelligence,即所谓的“通用人工智能”,它具备自主的感知、认知、决策、学习、执行和社会协作等能力,且符合人类情感、伦理与道德观念。
前不久,2024年诺贝尔物理学奖授予了美国科学家约翰·霍普菲尔德和加拿大科学家杰弗里·辛顿,表彰他们“通过人工神经网络实现机器学习的基础性发现和发明”。无独有偶,2024年诺贝尔化学奖的共同获奖者丹米斯·哈萨比斯和约翰·乔普开发了一种人工智能模型解决了一个50年前的问题:预测蛋白质的复杂结构。可见,通用人工智能在辅助科研方面已经大行其道!
这还远远不是终点:全球AI领域的重要人物、OpenAI前研究副总裁达里奥·阿莫迪,曾在公开发表的文章中预言“当AGI到来,它的纯粹智力方面甚至能超越诺贝尔奖得主,将科学新发现的速度提高10倍”。
面对时代风潮,OpenAI正在做出变革。就在10月31日,OpenAI正式推出了 ChatGPT 搜索功能,其原型正是数月前推出的SearchGPT。标志着其正式向谷歌的搜索引擎霸主地位发起挑战。
巧合的是,谷歌也在同日宣布,为其 Gemini AI 平台推出“基于谷歌搜索引擎的实时搜索功能”。而据外媒,OpenAI团队在互动中表示,年底将会有重大更新。
但是在AGI方兴未艾,OpenAI雄心勃勃的同时,自家却后院起火——重要团队解散了!
核心负责人离职,树倒猢狲散?
据外媒此前报道,OpenAI将解散其“AGI准备就绪”团队,据该团队负责人称,该团队负责就OpenAI自身处理日益强大的人工智能的能力,以及全世界管理该技术的准备情况向公司提供建议。
为什么突然解散了?原来是核心负责人离职了!
上周三,AGI Readiness高级顾问迈尔斯·布伦戴奇(Miles Brundage)发文宣布离职。他写道,他离职的主要原因是机会成本太高,他认为自己的研究对外界更有影响力,他想减少偏见,而且他已经完成了在OpenAI的目标。
这位仁兄是OpenAI一位资深研究者和管理者,于2018年加入OpenAI,离职前担任·AGI Readiness团队的高级顾问,之前还曾领导过PolicyResearch团队。更早之前,他曾在牛津大学人类未来研究所从事研究工作。
在解释自己离职的原因时,布伦戴奇提到,在OpenAI,他的研究和出版自由受到越来越多的限制。他强调,在人工智能政策讨论中需要有独立的声音,不受行业偏见和利益冲突的影响。在为OpenAI的领导层提供内部准备方面的建议后,他认为自己现在可以从组织外部对全球人工智能治理产生更大的影响。
Brundage还写道,至于OpenAI和世界在AGI准备方面的表现,“无论是OpenAI还是其他前沿实验室都没有准备好,世界也没有准备好”。
他计划创办自己的非营利组织,或加入现有的非营利组织,专注于人工智能政策研究和宣传。他还说“如果不齐心协力,人工智能就不可能尽量变得安全和有益”。不过他也写道“在未来几年内,AI可能让我们提前退休,并享受高标准的生活”。
团队解散了,人员难道只能等着“优化”?帖子称,前AGI准备团队成员将被重新分配到其他团队。
OpenAI发言人则表示“我们完全支持其在行业外从事政策研究的决定,并对他的贡献深表感谢;他计划全力投入人工智能政策的独立研究,这让他有机会在更大范围内产生影响,我们很高兴能从他的工作中学习并关注其影响。我们相信,在新的岗位上,其将继续提高行业和政府的决策质量。”
高管接连跑路,OpenAI前途生变?
据外媒,AGI Readiness团队解散的消息是在OpenAI董事会可能计划将公司重组为营利性企业,以及首席技术官米拉·穆拉提(Mira Murati)、研究主管鲍勃·麦克格鲁(Bob McGrew)和研究副总裁巴雷特·佐夫(Barret Zoph)三位高管在上月同一天宣布离职之后传出的。
对于一家上规模的公司而言,人员来来往往很正常,但这么多高层同时离职,很明显,是在对公司的发展道路方向的把控上出现了分歧!
离职的高管,显然不止上述几位:就在今年5月,OpenAI决定解散其“超级对齐”(Super alignment)团队,该团队专注于人工智能的长期风险,这距离其宣布成立该小组仅一年时间。
团队成立于2023年7月,其目标是“在 OpenAI 大量计算的支持下,到2027年解决(对齐)问题”。该团队主要关注“科学和技术突破,以引导和控制比我们聪明得多的人工智能系统”。当时,OpenAI表示将在四年内为该计划投入20%的计算能力。
解散的原因,自然还是“主心骨”的离去:当时OpenAI联合创始人,首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)和扬·莱克(Jan Leike)先后宣布离职。
在OpenAI,苏茨克维尔称,他的优先事项不是“构建下一个GPT版本”,而是找出如何阻止超级人工智能“失控”的方法。他认为,ChatGPT可能是有“意识”的。他认为,世界需要认识到这种技术的真正力量,因为有一天,一些人类可能会选择与机器融合。
这些看似疯狂的话,现在听起来并不像一两年前那么疯狂。ChatGPT已经改变了很多人对即将发生的事情的期望,将“永远不会发生”变成“会比你想象的更快发生”。例如,今年推出的ChatGPT·4o,一些方面就已经达到了“人类的智力水平”。这样下去不敢想象!
Leike在社交媒体上的一篇文章中写道,OpenAI的“安全文化和流程已经被闪亮的产品所取代”。
OpenAI首席执行官山姆·阿尔特曼(Sam Altman)当时在社交媒体上说,他对Leike的离开感到难过,OpenAI还有更多工作要做。不久之后,联合创始人格雷格·布罗克曼(Greg Brockman)在X上发布了一份声明,声称公司已经“提高了人们对AGI风险和机遇的认识,从而让世界更好地做好准备”。
莱克当时在社交媒体上写道“我之所以加入,是因为我认为OpenAI将是世界上进行这项研究的最佳场所;然而,在相当长的一段时间里,我一直与OpenAI领导层在公司的核心优先事项上存在分歧,直到我们最终达到了一个爆发点。”
Leike写道,他认为公司应该将更多的注意力集中在安全、监管、对AI时代的准备,以及可能的社会影响方面。“这些问题相当难以解决,我担心我们没有走上正确的轨道。在过去的几个月里,我的团队一直在逆风航行。有时我们为(计算资源)而苦苦挣扎,要完成这项至关重要的研究越来越难。”还补充说,OpenAI必须成为一家“安全第一的AGI公司”。
他在社交媒体上写道“打造比人类更智能的机器本身就是一项危险的工作,OpenAI代表全人类肩负着巨大的责任。但在过去几年里,安全文化和流程已经被闪亮的产品所取代。”