AI好好用报道
目前发布的最大的开源视频生成模型。
Genmo 当了一回「赛博菩萨」。
昨晚,AI 视频生成公司 Genmo 推出了最新的视频生成模型 Mochi 1 ,并且大手一挥,直接给开源了 。
Genmo 在社交媒体上高调宣布:Mochi 1 在运动质量、提示遵循性和人类渲染方面表现出色,甚至超越恐怖谷。
同时,它还声称,在内部测试中,Mochi 1 已经能与 Runway、Luma 、可灵等领先的闭源竞争者打个平手,甚至略胜一筹。
为了让网友体验一波 Mochi 1 ,Genmo 还提供了一个在线网址。
链接:https://www.genmo.ai/play
不过,每6小时仅有 2 次免费生成机会,且用且珍惜吧。
不少网友得知消息后,已经按耐不住整活的热情。
那么,它的效果到底咋样?
先来瞅瞅官方放出来的视频 demo,稍后我们奉上一手实测。
-1-
一手实测
要说 Mochi 1 最大的优势,就在于其高保真运动和强大的提示遵循能力。
它可以对生成视频中的角色、设定和动作进行精确控制。
科技媒体 VentureBeat 的记者生成了一段老奶奶侧对着镜头说话的视频。
无论是花白的头发,还是面部的皱纹,以及说话时颤动的嘴角,都相当逼真。
不过,如果细看,还是能发现老奶奶的眨眼动作并不自然。
而在下面这段 5 秒视频中,男子正端详瓷器,眼睛没有什么明显的 bug,但手部动幅一大,就会发生轻微扭曲。
X 网友 Heather Cooper 展示了一系列 Mochi 1 生成的作品:
她还对比了两次生成结果的连贯性:
我们也来凑凑热闹,亲自上手试一把。
Prompt:Surreal, cinematic, an astronaut wandering on the desolate moon, with extreme detail. 提示词:超现实,电影效果,一个宇航员在荒凉的月球上漫步,极致细节。
一开始,镜头对准坑坑洼洼的地表,然后缓缓上移,画面中出现了一个身穿宇航服的宇航员。
虽然其镜头运动幅度挺大,但并未体现 Prompt 中宇航员漫步的动作。
Prompt:A little dog was chasing bubbles on the grass. 提示词:一只小狗在草地上追逐泡泡。
这一次,Mochi 1 翻车翻得猝不及防。
视频中,小狗在摇晃脑袋时,出现了大面积的崩坏,而且从修勾的嘴里吐出很多泡泡,这显然不符合客观事实。
尽管官方声称 Mochi 1 的提示遵循和运动质量超过大多数视频模型,但我们发现,Mochi 1 仍然存在瑕疵。
例如,它仅支持 480p 的分辨率,并且在处理复杂运动的场景时,可能会出现轻微的视觉扭曲。
此外,Mochi 1 在模拟照片级真实感方面表现出色,但在处理动画内容时还稍显力不从心。
当然,Genmo 公司已表示,计划在今年晚些时候推出 Mochi 1 HD 版本,届时将支持 720p 的分辨率,并在运动细节上提供更高的精确度。
-2-
目前发布的最大的开源视频生成模型
据介绍,Mochi 1 基于 Genmo 的非对称扩散变换器(AsymmDiT)架构构建,拥有 100 亿个参数,是目前公开发布的规模最大的开源视频生成模型。
该架构专注于视觉推理,处理视频数据的参数量是处理文本数据的四倍。
为了降低终端用户的设备内存需求,让开发者更容易地获取和使用模型,Mochi 1 采用了视频变分自编码器技术,能够将视频数据压缩到原始大小的一小部分。
现在,用户可以在 Hugging Face 平台上免费获取完整的模型权重和代码,不过需要注意的是,要在自己的设备上运行 Mochi 1,至少需要配备 4 块 Nvidia H100 GPU。
Code:
https://github.com/genmoai/models
Preview版本:
https://huggingface.co/genmo/mochi-1-preview
最后,说个题外话。
昨晚,一大堆 AI 公司排队上「新货」。
除了 Genmo 开源自家视频生成模型 Mochi 1 外 ,Runway 还介绍了新功能 ——Act One,可以把真人表演转化成不同风格。
而在大模型领域,Anthropic 推出了升级版的 Claude 3.5 Sonnet ,以及一款新模型 Claude 3.5 Haiku;OpenAI 在欧洲上线了高级语音功能;Perplexity 引入推理模式,允许用户提出多层问题。
此外,AI 生图领域,Stability AI 发布了自家最强模型 Stable Diffusion 3.5,并一口气祭出三个版本;Ideogram 推出 Canvas,可扩图、局部重绘等。
大洋彼岸的 AI 圈扎堆搞更新,真有一种过年的赶脚。