11月6日,由字节跳动公司与清华大学联合研究团队共同推出的新一代肖像动画技术——X-Portrait 2。
这项技术不仅能够大幅降低现有动作捕捉、角色动画及内容创建流程的复杂度,而且还能以极低成本高效地创造出生动、逼真的角色动画和视频素材。
X-Portrait 2 是基于先前的 X-Portrait 技术进一步优化而来,它在肖像动画的表现力上达到了新的高度。
为了实现这一目标,研究团队构建了一种最先进的表情编码器模型,该模型通过在大规模数据集上的训练,能够隐式地编码输入中的每一个细微表情。
随后,此编码器与强大的生成扩散模型相结合,用以生成流畅且富有表现力的视频。
X-Portrait 2 模型不仅可以转移演员的细微面部表情,甚至能够处理诸如嘟嘴、吐舌、鼓腮以及皱眉等挑战性表情,同时在生成的视频中保持高保真度的情感传达。
在模型的训练过程中,确保了外观与运动的高度解耦,这意味着编码器只关注驱动视频中的表情相关信息。
这种设计使得模型能够在不同风格和领域之间实现强有力的表情迁移,无论是真实的肖像还是卡通图像。
因此,X-Portrait 2 模型具有广泛的适应性,适用于包括现实世界故事讲述、角色动画、虚拟代理和视觉效果在内的多种应用场景。
与现有的最先进技术相比,例如 X-Portrait 和最近发布的 Runway Act-One,X-Portrait 2 在快速头部运动、细微表情变化以及强烈个人情感的忠实转移方面表现出色。
这些特性对于高质量动画内容的创作至关重要,特别是对于动画和电影制作等领域而言。
具体来说,X-Portrait 2 的核心技术在于其创新的表情编码器模型。
该模型通过对大规模数据集的学习,能够准确捕捉并编码源视频中人物的每一处细微表情变化。
在此基础上,通过与先进的生成扩散模型相结合,X-Portrait 2 能够将这些细腻的表情精准地转移到静态肖像上,生成自然流畅的动画效果。
这一过程不仅极大地丰富了动画内容的表现形式,同时也为创作者提供了更为便捷高效的工具。
关注我们:即可加入【AI交流群】,免费领取【AI大礼包】