北京时间11月27日凌晨,OpenAI的文生视频模型Sora被早期参与测试的艺术家泄露了访问权限API,使其短暂开放了1小时左右。随后,OpenAI暂时关闭了所有艺术家对Sora的早期访问权限。
事情经过是这样的:
今天凌晨,一个自称“Sora PR Puppets”的组织突然在Hugging Face上发布了一个项目,让未被邀请的用户也可以使用 Sora生成分辨率高达1080p的10秒视频。
部分动作快的用户体验之后,在X平台上传了部分生成的视频,其中大部分都带有 OpenAI独特的视觉水印。从生成视频的效果来看,Sora模型的性能确实也有了大幅提升。
不过OpenAI应该很快发现了问题。
“Sora PR Puppets”组织声称,三个小时后,OpenAI暂时关闭了所有艺术家对Sora 的早期访问权限。
这个组织为什么这样做呢?
在一封公开信中,这个组织声称,OpenAI 正在向 Sora 的早期测试人员施压,要求他们为 Sora 编造积极的表述,但未能公平地补偿他们的工作。
“数百名艺术家通过漏洞测试、反馈和实验工作为这家市 1500亿美元的公司的 [Sora 早期访问] 计划提供无偿劳动。”“这个早期访问计划似乎与创意表达和批评无关,而与公关和广告有关。”
该组织还声称,OpenAI对早期访问用户进行严格控制,从而误导了人们对Sora能力的认识。该组织表示,每个Sora输出都需要经过OpenAI的批准才能广泛分享,并且只有少数创作者会被选中,让他们的Sora创作作品进行公开传播。
“我们并不反对将人工智能技术用作艺术工具(如果我们反对,我们可能不会被邀请参加这个项目),”该组织写道。“我们不同意的是这个艺术家计划的推出方式,以及该工具在可能公开发布之前的发展情况。我们向全世界分享这一点,希望OpenAI变得更加开放、更加支持艺术家,并支持艺术,而不仅仅是公关噱头。”
Sora仍处于“研究预览”阶段
OpenAI发言人在一份声明中表示,Sora仍处于“研究预览”阶段,该公司“正在努力在创造力与强有力的安全措施之间取得平衡,以实现更广泛的应用”。
“我们alpha版的数百名艺术家塑造了Sora的发展,帮助确定新功能和保障措施的优先顺序,”该发言人说。“参与是自愿的,没有提供反馈或使用该工具的义务。我们很高兴为这些艺术家提供免费访问权限,并将继续通过赠款、活动和其他计划为他们提供支持。我们相信人工智能可以成为一种强大的创意工具,并致力于让Sora既实用又安全。”
该发言人还表示,艺术家对OpenAI“没有任何义务”,除了“负责任地”使用Sora,并在Sora开发期间避免分享机密信息。但没有明确说明“负责任”的使用意味着什么,也没有说明 OpenAI认为哪些细节是机密的。
Sora前景堪忧
OpenAI的Sora是一款在2024年2月正式发布的文生视频大模型。这个模型不仅被视为视频生成工具,还被看作是一种“世界模拟器”。Sora的名称源自日语中的“空”(sora),意味着天空,象征着其无限的创造潜力。
当时,OpenAI在官网还陆续公布了几十段根据文字提示生成的视频,每一段都堪称高质量。这不禁让很多人感叹,视频生产的颠覆性革命来了。
不过,Sora学习到的知识还有限,在部分视频中,有明显违背现实规律的画面出现。OpenAI也承认了这一点,其在官网上就主动指出来它无法准确模拟许多基本交互的物理特性,例如玻璃破碎等。
Sora亮相之后,文生视频大模型成为很多大模型厂商争相涉足的领域,Runway Gen3、Kling、Meta Movie Gen等模型先后对外测试。
业内一直在观察Sora的动向,但是除了偶尔丢出几个生成的视频内容外,Sora似乎被遗忘在某个角落里。更不好的信号是,Sora的联合负责人之一Tim Brooks于10月初离开OpenAI加盟谷歌。
在最近的Reddit AMA 上,OpenAI首席产品官Kevin Weil表示,Sora的发展受到“需要完善模型、确保安全/模拟/其他事项正确无误以及扩展计算能力”的阻碍。
从这次事件来看,作为期货的Sora确实还“活着”,但推进其产品化或者商业化,可能并不是OpenAI的优先事项。
觉得内容有收获,请您加个关注,标个星~ 谢谢您