OpenAI 计划 12 月发布新一代 AI 模型“Orion”离任高级顾问表示
“ 全球企业尚未为 AGI 带来的深远影响
OpenAI 计划于 12 月发布代号“Orion”的前沿AI模型,被期待为GPT-4的强力继承者。随着新模型的问世,公司内部围绕“人工智能通用化”与商业化路径的讨论愈发激烈,多位关键高管的离职更反映出OpenAI在技术进步和安全责任之间的张力。
Orion:走向人工智能新高度
代号“Orion”的新一代AI模型标志着 OpenAI 在技术开发中的新进展。不同于 GPT-4 和 o1 逐步优化的方式,Orion 计划直接面向企业客户,借助微软 Azure 平台优先提供给与 OpenAI 有密切合作的公司使用。这种“企业定制优先”的策略使 Orion 的应用范围从一开始就具备了更多的产业实践性,而非先向公众用户开放。内部消息称其运算能力比 GPT-4 高达100倍,这将显著提升大模型的理解能力和推理深度。Orion的训练过程使用了大量合成数据,其中 “Strawberry” 版本的 o1 模型在其中提供了关键的支持数据。这项技术创新在模型训练阶段进行了广泛的测试并迎来了成果:今年9月,OpenAI内部曾为这一进展举办庆祝活动,暗示 Orion的训练已接近尾声。
AI发展路径中的矛盾:
安全性与商业化的平衡
Orion的发布引发了 OpenAI 内部人员调整,尤其是在安全团队和管理层的离职潮中尤为明显。近期,负责 AGI 准备工作的高级顾问 Miles Brundage 宣布离职,并对公司现状表达了强烈担忧。Miles Brundage在离职声明中具体提到,离开后他将专注于独立的人工智能政策研究和倡导。他认为在非营利部门中,他可以拥有更大的发言自由,从而能够更加独立地提出对人工智能安全和政策的见解,尤其是围绕AGI(人工智能通用化)的全球性风险与应对策略。他表达了对OpenAI的感谢,并表示将继续与公司保持合作,但在外部环境中,他希望能够推动更加独立的AI政策和安全框架。
OpenAI高级顾问Miles Brundage在社交平台X上发文宣布离开OpenAI,强调自己将在AI政策研究和倡导方面发挥更大影响力。他认为,全球尚未对人工智能的广泛应用做好准备,而 OpenAI 当前的步伐和资源配置使安全研究难以有效开展。这一现象背后是公司自 2019 年商业化转型以来的深刻矛盾。当时,OpenAI从一个非营利研究机构转型为公益性公司,接受了包括微软在内的多笔巨额投资。随着公司结构调整,商业化目标逐渐显现,而初创时对 AI 伦理与安全的关注似乎有所削弱。一位前团队成员透露,由于公司资源更多向商业应用倾斜,AI安全团队的研究经常因资源受限而搁置。多位研究员对此表达了不满,认为当前的公司战略与其加入公司时的目标出现了偏离。
AGI的潜在挑战与未来展望
Orion的研发与即将上线,标志着 OpenAI 正在向人工智能通用化迈进。作为公司内部被称作“革命性模型”的下一代技术,Orion 的应用场景不再局限于单一任务。未来,该模型将具备更广泛的跨领域能力,为通用人工智能(AGI)带来可能性。然而,关于 AGI 的安全性和政策保障问题依然悬而未决,这一技术愿景面临着复杂的挑战。近期离任的高级顾问Miles Brundage表示,“没有任何公司,包括 OpenAI,在应对 AGI 上真正做好了准备”。这一发言折射出 OpenAI 内部的深刻担忧——作为一家在全球范围内引领前沿技术的企业,即便是 OpenAI 自身,也面临着对 AGI 发展速度与安全保障不匹配的困境。Brundage 强调,AGI 将彻底改变人类社会,但在现阶段,包括 OpenAI 在内的所有公司在技术上的应对能力、政策框架以及伦理防范等层面仍然存在诸多不足。Brundage 在离职声明中呼吁,全球的监管机构与政策制定者应加快制定独立的AI 安全标准,确保技术发展不被资本驱动影响。他警告,过快推进 AGI 的商业化将使风险超出控制,全球需要一个更稳健的安全和伦理基础才能应对 AGI 所带来的不可预测的影响。他同时指出,政策讨论需要更多来自外部的独立声音,而不仅仅依赖内部研发团队或产业决策层的支持。尽管如此,为了推动AI安全,OpenAI 仍向离职的 Brundage 提供了API 使用权和资源支持,以鼓励他在独立的外部环境中继续开展相关研究。这一姿态显示了 OpenAI 对 AI 伦理的某种承诺,但也反映出其现有的技术伦理框架在应对 AGI 的严峻挑战上可能存在不足。