OpenAI将发布新模型“Orion”,前高级顾问称全球尚未为AGI做好准备

文摘   2024-10-25 21:00   四川  
OpenAI 计划 12 月发布新一代 AI 模型“Orion”

离任高级顾问表示

“ 全球企业尚未为 AGI 带来的深远影响

做好准备 ”

OpenAI 计划于 12 月发布代号“Orion”的前沿AI模型,被期待为GPT-4的强力继承者。随着新模型的问世,公司内部围绕“人工智能通用化”与商业化路径的讨论愈发激烈,多位关键高管的离职更反映出OpenAI在技术进步安全责任之间的张力。


Orion:走向人工智能新高度

代号“Orion”的新一代AI模型标志着 OpenAI 在技术开发中的新进展。
不同于 GPT-4 和 o1 逐步优化的方式,Orion 计划直接面向企业客户,借助微软 Azure 平台优先提供给与 OpenAI 有密切合作的公司使用。
这种“企业定制优先”的策略使 Orion 的应用范围从一开始就具备了更多的产业实践性,而非先向公众用户开放。

Orion模型的性能被寄予厚望。
内部消息称其运算能力比 GPT-4 高达100倍,这将显著提升大模型的理解能力推理深度
Orion的训练过程使用了大量合成数据,其中 “Strawberry” 版本的 o1 模型在其中提供了关键的支持数据。
这项技术创新在模型训练阶段进行了广泛的测试并迎来了成果:今年9月,OpenAI内部曾为这一进展举办庆祝活动,暗示 Orion的训练已接近尾声。


AI发展路径中的矛盾:

安全性与商业化的平衡

Orion的发布引发了 OpenAI 内部人员调整,尤其是在安全团队和管理层的离职潮中尤为明显。
近期,负责 AGI 准备工作的高级顾问 Miles Brundage 宣布离职,并对公司现状表达了强烈担忧
Miles Brundage在离职声明中具体提到,离开后他将专注于独立的人工智能政策研究和倡导
他认为在非营利部门中,他可以拥有更大的发言自由,从而能够更加独立地提出对人工智能安全政策的见解,尤其是围绕AGI(人工智能通用化)的全球性风险与应对策略。

他表达了对OpenAI的感谢,并表示将继续与公司保持合作,但在外部环境中,他希望能够推动更加独立的AI政策和安全框架

OpenAI高级顾问Miles Brundage在社交平台X上发文宣布离开OpenAI,强调自己将在AI政策研究和倡导方面发挥更大影响力。
他认为,全球尚未对人工智能的广泛应用做好准备,而 OpenAI 当前的步伐和资源配置使安全研究难以有效开展。
这一现象背后是公司自 2019 年商业化转型以来的深刻矛盾。
当时,OpenAI从一个非营利研究机构转型为公益性公司,接受了包括微软在内的多笔巨额投资
随着公司结构调整,商业化目标逐渐显现,而初创时对 AI 伦理安全的关注似乎有所削弱。
一位前团队成员透露,由于公司资源更多向商业应用倾斜,AI安全团队的研究经常因资源受限而搁置多位研究员对此表达了不满,认为当前的公司战略与其加入公司时的目标出现了偏离。


AGI的潜在挑战与未来展望

Orion的研发与即将上线,标志着 OpenAI 正在向人工智能通用化迈进。
作为公司内部被称作“革命性模型”的下一代技术,Orion 的应用场景不再局限于单一任务
未来,该模型将具备更广泛的跨领域能力,为通用人工智能(AGI)带来可能性。然而,关于 AGI 的安全性政策保障问题依然悬而未决,这一技术愿景面临着复杂的挑战。

近期离任的高级顾问Miles Brundage表示,“没有任何公司,包括 OpenAI,在应对 AGI 上真正做好了准备”
这一发言折射出 OpenAI 内部的深刻担忧——作为一家在全球范围内引领前沿技术的企业,即便是 OpenAI 自身,也面临着对 AGI 发展速度与安全保障不匹配的困境。
Brundage 强调,AGI 将彻底改变人类社会,但在现阶段,包括 OpenAI 在内的所有公司在技术上的应对能力、政策框架以及伦理防范等层面仍然存在诸多不足。
Brundage 在离职声明中呼吁,全球的监管机构政策制定者应加快制定独立的AI 安全标准,确保技术发展不被资本驱动影响
他警告,过快推进 AGI 的商业化将使风险超出控制,全球需要一个更稳健的安全和伦理基础才能应对 AGI 所带来的不可预测的影响
他同时指出,政策讨论需要更多来自外部的独立声音,而不仅仅依赖内部研发团队产业决策层的支持。
尽管如此,为了推动AI安全,OpenAI 仍向离职的 Brundage 提供了API 使用权和资源支持,以鼓励他在独立的外部环境中继续开展相关研究。
这一姿态显示了 OpenAI 对 AI 伦理的某种承诺,但也反映出其现有的技术伦理框架在应对 AGI 的严峻挑战上可能存在不足。

快客硬核AI
“速递AI前沿,解读智能科技”
 最新文章