AI Art Weekly | AI 艺术周刊 #16
文摘
科技
2024-02-19 06:31
北京
欢迎大家踏入本期的《AI艺术周刊》。在这里,我们一起探索人工智能的最新进展和它如何重新定义艺术创作的边界。无论你是 AI 艺术的狂热爱好者,还是对这一领域充满好奇的新手,我们都将为你带来灵感的火花和实践中的深刻见解。让我们共同揭开 AI 艺术的神秘面纱,探索它的无限可能。* 每周我需要花费大约 8-12 小时来整理这些周刊内容。如果你喜欢我的工作,不妨在下方赠我一杯咖啡,可以令我保持思绪清晰与热情不减 🙏🌟 本期要闻:
https://openai.com/sora?ref=aiartweekly |
上周,OpenAI 再次震惊世界。他们展示了最新的视频生成大模型 — Sora,它能够根据文本提示创造出既真实又富有想象力的场景。仅仅读到这里,你可能会觉得这没什么新鲜的,直到你看到实际的成果。简直令人震惊。除了令人瞠目结舌的成果之外,对我来说最有趣的是,这个模型学会了模拟一些来自物理世界的人、动物和环境的方面,而并没有明确地接受过3D和物体的训练。它被输入的数据越多,就对世界了解得越深。它甚至学会了在生成 Minecraft 视频时玩家的行为 🤯 看看这将如何发展将会非常有趣~注: Sora 示例
Stable Cascade:当 Stable Diffusion 遇到 Würstchenhttps://stability.ai/news/introducing-stable-cascade?ref=aiartweekly |
Stable Cascade 是 Stability AI 推出的一款新型文本到图像模型,建立在 Würstchen 架构之上。由于其更为紧凑的潜在空间,与如 SDXL 这样的模型相比,它可以更快地进行训练并生成图像。最棒的是:所有已知的扩展,如微调、LoRA、ControlNet、IP-Adapter、LCM 都是可行的。看来现在是投入稳定扩散的绝佳时机。
注: Stable Cascade 示例Magic-Me
https://magic-me-webpage.github.io/?ref=aiartweekly |
Magic-Me 同样也是一款视频生成模型,能够根据几张图片定义的特定主体身份生成视频。注: Magic-Me 示例Continuous 3D Words 用于文本到图像生成https://ttchengab.github.io/continuous_3d_words/?ref=aiartweekly |
Continuous 3D Words 是一种新的控制方法,可以通过滑块方式修改图像中的属性。这允许对照明、非刚性形状变化(如翅膀)以及相机方向等有更多的控制。注: Continuous 3D Words 示例GALA3D:通过布局引导的生成性高斯喷涂实现文本到三维复杂场景生成https://gala3d.github.io/?ref=aiartweekly |
GALA3D 是一种文本到三维的方法,能够生成包含多个对象的复杂场景,并控制它们的布局和互动。该方法利用大型语言模型生成初始布局描述,然后通过条件扩散优化三维场景,使其更加逼真。注: GALA3D 示例HeadStudio:使用三维高斯喷涂技术将文本转换为可动画的头像https://zhenglinzhou.github.io/HeadStudio-ProjectPage/?ref=aiartweekly |
HeadStudio 是另一个文本到三维头像模型,能够生成可动画的头像。该方法能够产生高保真度的头像,具有平滑的表情变形和实时渲染功能。注: HeadStudio 示例AudioEditing:使用 DDPM 反转进行零样本无监督和基于文本的音频编辑https://hilamanor.github.io/AudioEditing/?ref=aiartweekly |
AudioEditing 提供了两种新的音频编辑方法。第一种技术允许基于文本的编辑,而第二种是一种在无监督情况下根据语义进行编辑的方法。注: AudioEditing 示例
Sophia-in-Audition:使用机器人表演者进行虚拟制作https://miaoing.github.io/SiA/?ref=aiartweekly |
Sophia-in-Audition 是一个系统,使用人形机器人 Sophia 作为 UltraStage 内的虚拟表演者,UltraStage 是一个与多个摄像机配合使用的可控穹顶光照。其结果是一个虚拟演员,能够复制标志性的电影片段,跟随真实表演者,并执行多种动作和表情,同时能够控制光照和摄像机移动。注: Sophia-in-Audition 示例
Geometry Transfer:
为社交互动智能体生成实时神经式倾听行为
https://daksitha.github.io/ReNeLib/?ref=aiartweekly |
⚒️ 工具与教程:
Stable Cascade Google Colab非官方的 Stable Cascade Google Colab。还有一个 Hugging Face 演示。https://colab.research.google.com/github/mkshing/notebooks/blob/main/stable_cascade.ipynb?ref=aiartweekly |
https://huggingface.co/spaces/multimodalart/stable-cascade?ref=aiartweekly |
实现生成特定主题身份视频的 Magic-Me 源码https://github.com/Zhen-Dong/Magic-Me?ref=aiartweekly |
ComfyUI AnimateDiff LCM 指南一份关于如何在 ComfyUI 中使用 AnimateDiff LCM 模型来创建像 Gen-1 那样的视频到视频风格转换的指南。https://civitai.com/articles/4138?ref=aiartweekly |
如果你也对 Midjourney 或艺术设计感兴趣,那么欢迎加入我们的社群!在这里,我们可以一起探讨有趣的设计话题,共同探索 Midjourney 所带来的无限可能性!注:如果你与我一样热衷于紧跟人工智能与设计的最新趋势,那么我强烈推荐你试用下我们精心打造的这款应用 — 设计原力。这款应用能够让你随时了解到最前沿的信息,让你的信息库始终保持最新状态▲ 好了,以上这些就是本节的全部内容了 ~ 如果,你也对 AI 绘画感兴趣,不妨记得关注我!我们下期见!!