之前分享过很多虚拟试衣项目,很多是阿里做的。
今天我们来看一个腾讯和华为的虚拟试衣项目IMAGDressing,这是在上周发布的。代码和模型在github上发布:https://github.com/muzishen/IMAGDressing
场景
虚拟试衣和虚拟穿衣任务在条件和适用场景上的区别:
虚拟试衣主要关注用户如何在虚拟环境中试穿服装,通过局部服装修补实现逼真的试穿效果,提升消费者的在线购物体验。 虚拟穿衣任务则着重于生成具有固定服装和可选条件(如面孔、姿势、场景)的可自由编辑的人体图像,适用于商家展示服装的多种需求。
方法
IMAGDressing-v1框架示意图
该框架主要由一个可训练的服装UNet和一个冻结的去噪UNet组成。前者提取细粒度的服装特征,而后者将这些特征与文本提示平衡。IMAGDressing-v1兼容其他社区模块,如ControlNet和IP-Adapter。
对比
定量对比:IMAGDressing-v1与几种最先进方法的定量对比。 定性对比:在非特定和特定条件下,IMAGDressing-v1与其他最先进方法(包括BLIP-Diffusion、Versatile Diffusion、IP-Adapter和MagicClothing)的定性对比。