上周Runway 推出了一款生成式角色表演工具,可以把视频转换成任意风格虚拟角色动画,并且保持表情语音口型同步。只需要用摄像头录下演员的表演,Act-One 就能把视频转换成虚拟角色的动画,比如演员的眼神、面部表情、动作节奏和说话方式都会被捕捉下来。
本周字节跳动的人找到我,说他们也有一款类似的产品在内测,比Runway 的Act-One 的效果还要好,让我测试看看。
真是不测不知道,一测吓一跳。字节果然是好东西很多,但是都藏起来了。
能够如实表现快速的头部动作、细微的表情变化以及强烈的个人情感,这些方面对于高质量的内容创作(比如动画和电影制作)至关重要。
这个工具内部目前还没有正式产品名称,内部称为X-Portrait 2。看着名字就知道研究了一段时间了,都2代了。
X-Portrait 2 是一款基于深度学习的高效人像动画生成工具。用户只需提供一张静态的肖像图和一个带有表情和动作的“驱动视频”,X-Portrait 2 就可以将视频中的表情和动作迁移到静态图像上,生成自然流畅、充满表现力的动画。
它不仅可以将视频中人物的动作表情转移到目标图像中,还能捕捉并还原极其细微的面部表情变化,比如嘟嘴、鼓腮、皱眉等,让转移生成的动画不仅流畅,还能传达出丰富的情绪。
测试案例展示
不多说,先上几个我测试的案例看看。
X-Portrait 2 可以精确捕捉并传递快速头部运动、甚至可以还原出视频中人物的细微表情变化和情绪转变。让生成的动画显得更加真实生动。
向佐也有了演技
以往这种都需要演员穿戴动作捕捉装备或者通过摄像头动作捕捉技术才能完成,现在只需要简单的图片和视频使用提示词即可控制。
面孔”和“表情”分离:只变表情,不变脸
为了让照片在动的时候不失去原来的样子,X-Portrait 2 采用了“面孔”和“表情”分离的方法。这个方法就像把人的长相和表情分开,只让表情改变而不动原来的五官样貌。
这种分离方法让照片在模仿视频表情时,始终保持自己本来的样子,比如不会因为表情而影响脸型。
X-Portrait 2 对于细小的表情和快速的动作非常敏感。比如,一个快速的转头、嘟嘴或眉毛微微扬起,这些细节都会被模型捕捉并还原出来,生成的视频效果非常细腻。这种精细的动作还原使得它特别适合影视特效或动画制作,能够让生成的角色看起来更真实。
更详细介绍,点击阅读原文
点赞,关注关注关注!