点击下方卡片,关注「魔方AI空间」公众号
7月4日,2024世界人工智能大会在上海盛大开幕。商汤科技推出的首个面向C端用户的可控人物视频生成模型——Vimi,荣获 "镇馆之宝" 这一大会展览的最高荣誉。
何为 Vimi
可控人物视频生成算法模型 Vimi 是首个可控人物视频生成AIGC产品。基于商汤日日新大模型能力,它可以通过动作视频、动画、声音、文字等多种驱动元素来驱动人物类图片,从而生成和目标动作一致的人物类视频。
除了可控性外,Vimi 在生成人物稳定性、生成视频时长上,也突破了其它大模型AI视频生成的限制,可以稳定的生成分钟级的单镜头人物视频。与常规图片表情控制类技术只能控制头部表情动作不同,Vimi 不但可以控制人物表情,还可以控制肢体动作,并生成合理的头发、服饰、背景,并支持光影变化,是首个稳定的可控人物视频生成产品。
内测申请地址:https://vme-int.softsugar.com/questionnaire/
产品优势
可控人物:可控生成高一致性的人物表情及肢体动作视频; 多种控制方式:可以通过人物视频、动画参数、语音文字等输入驱动; 分钟级单镜头:支持生成分钟级的单镜头人物视频; 生成合理的视频场景:支持人物合理的头发、服饰、背景补全,并支持光影变化。
应用场景:
据悉,该模型主要面向C端用户。根据现场展示来看,Vimi的表现相当惊艳!不仅能够实现精准的人物表情控制,同时还可实现在半身区域内控制照片中人物的自然肢体变化,并自动生成与人物相符的头发、服饰及背景变化,可稳定生成1分钟的单镜头人物类视频。
1.根据照片,可快速生成写真视频,这一点可以轻松搞定。
2.可快速生成个性动态的表情包
目前,Vimi已在商汤科技官网开放预约体验。在明天(7月5日)商汤科技举办的“大爱无疆·向新力”人工智能论坛上,还将揭开Vimi的更多细节,敬请期待。
❝申请申请:
https://vme-int.softsugar.com/questionnaire/
技术交流
加入「AIGCmagic社区」群聊,一起交流讨论,涉及 AI视频、AI绘画、Sora技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个不同方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群!!
推荐阅读
• FoleyCrafter:自动为视频配音 | 开源AI配音技术 | AI视频有声时代真的来了
• AI视频进入有声时代 | 谷歌 DeepMind 发布V2A:轻松给AI视频配音
• 变天啦!?| Luma 发布视频生成模型 Dream Machine,直逼电影级效果!
• UniAnimate:可控人体视频生成新框架,跳舞视频生成技术再添一员
• MOFA-Video:图像到视频的可控生成框架,可本地一键部署
• AIGC |「视频生成」系列之Hunyuan-DiT:基于DiT架构的最佳中文实践
• 「文生一切」大模型Lumina-T2X:一个框架整合图像、视频、音频和3D生成(附体验地址)