10秒图片重建3D模型的开源魔法!昂贵NFT能否3D打印?

科技   2024-12-15 18:02   美国  
全文2700字,阅读需4分钟。本文分享腾讯ARC实验室发布的图片三维建模开源技术以及实测后的感悟。
果觉得AM易道文章有价值,请读者朋友帮忙转发点赞在看评论,支持AM易道创作
AM易道本文与文中提到企业(如有)不存在任何形式商业合作、赞助、雇佣等利益关联。
图片视频来自于网络,仅作为辅助阅读之用途,无商业目的。版权归原作者所有,如有任何侵权行为,请权利人及时联系,我们将在第一时间删除。

AM易道导语:一张照片引发的风暴

之前AM易道分享过图像转3D模型的很多AI商用服务,今天,AM易道要为大家介绍一项开源方案:
腾讯ARC实验室发布的InstantMesh技术。

这个刚刚在arXiv上发布的研究成果(arXiv:2404.07191v2)展现了丝滑能力:
只需一张2D(带景深明暗关系)图片,短短10秒就能生成3D模型。


突发奇想,AM易道做了一个大胆的尝试:我们选取了曾创下340多万美元天价的Bored Ape NFT之一作为测试对象。

经AM易道尝试,InstantMesh还原了这只百无聊赖的猿猴形象的细节,从标志性的表情到服装,虽然细节还有待优化,但至少转换成了可供3D打印的模型。
把价值连城的数字艺术品通过AI技术+3D打印生产成为触手可及的实体收藏品,是AM易道认为其中一个有趣的小众应用方向。
在深入解析这项技术之前,让我们先了解一下InstantMesh背后的团队。

这项研究来自腾讯PCG的ARC实验室和上海科技大学的联合攻关,汇集了计算机视觉和3D重建领域的专家。
研究团队已经宣布将开源所有代码和模型权重,这无疑将加速3D内容创作的技术革新。
开源项目地址和信息在文末。
请跟随AM易道一起来揭秘这个能将2D图片变为3D模型的开源黑科技!

深度解析:从2D到3D的魔法

看到图1中展示的效果,相信很多读者都会惊叹:这真的只用了一张2D图片就能重建出如此精细的3D模型吗?

从可爱的卡通人物到精致的家具用品,从复杂的机械结构到充满艺术感的装饰品,InstantMesh展现出令人叹为观止的通用性和精确度。

这个技术的核心创新在于巧妙地结合了两大关键技术。

如果把传统的3D重建比作手工雕刻,那InstantMesh就像是一位既有"慧眼"又有"巧手"的雕塑大师。

首先,它的"慧眼"是多视角扩散模型(Multi-view Diffusion Model),能够从单张图片想象出物体在不同角度下的样子。

就像艺术家看到一件物品的正面,就能在脑海中构思出它的侧面和背面是什么样子。

其次,它的"巧手"则是稀疏视图大型重建模型(Sparse-view Large Reconstruction Model),能够将这些不同角度的视图精准地转换为完整的3D网格模型。

这就像雕塑家能够将脑海中的立体构想完美地呈现在作品中。

通过图2所示的技术流程,我们可以看到这个"魔法般"的转换过程是如何实现的。

对具体算法执行感兴趣的读者,请自行查阅arXiv相关论文。

技术优势:颠覆传统的突破性创新
InstantMesh的核心优势体现在三个关键维度:处理效率、重建质量和通用性能。

从图3的对比结果我们可以清晰地看到,在处理相同的输入图片时,InstantMesh展现出了与其他CRM、LGM、TripoSR等算法的优势。

在技术层面,InstantMesh引入了两个创新。
首先是差分等值面提取模块(Differentiable iso-surface extraction),这个模块能够直接在网格表面上应用几何监督信息,如深度图和法向量

传统的3D重建技术就像是在黑暗中摸索物体的形状,只能得到模糊的轮廓。

而InstantMesh的差分等值面提取模块则像是打开了明亮的探照灯,能同时"看到"物体的深度、表面法线等立体信息。

想象一下,当你在捏橡皮泥时,不仅能看到泥块的外形,还能精确感知每一处凹凸的走向,这就是InstantMesh的工作方式。

第二个突破则像是AI的"学习成长"过程。

InstantMesh采用了一种独特的"先粗后细"的学习策略。

这就像学画画,我们总是先打草稿(第一阶段的NeRF预训练),确定了大体轮廓后,再一步步完善细节(第二阶段的网格精调)。

这种渐进式的学习方法不仅让AI"学习"得更快,还确保了最终作品的精致度。

从实验数据来看,这种方法在Google扫描物体数据集上取得了令人瞩目的成绩,无论是图像品质(PSNR)、结构相似度(SSIM)还是视觉感知质量(LPIPS),都达到了领先水平。

NFT的3D重建之旅:从像素到实体(AM易道实测)

其实这个算法最核心的是需要一张好的图片,经过测试,如果纯粹的卡通图片并不能生成3D模型。

比如用下图:

经过处理背景后:

经过算法处理后的多视角图:

可以看到,在这一步时候就已经出问题,多视角试图并未能形成任何三维立体:

前文说过,这个算法是“能够直接在网格表面上应用几何监督信息,如深度图和法向量。

经过我们的测试,其三维重建所需要的是带有深度的图片信息,比如一些阴影表现。

我们从网上找了另一张带阴影信息的无聊猴,看起来更立体的平面图,可以看到面部和身体都含有不同程度的阴影。

开始处理,祛除不相关背景:

非常关键的一步,形成多视角图:

可以看到,效果非常棒!
这时,直接输出obj文件:

虽然细节还有待提升,可以通过更多的拟合次数来提高效果。

如果丢掉贴图信息,纯看3D模型本身质量如何呢?

纯看模型本身,效果不理想,分辨率极低,基本是无法3D打印的。

为了排除是AM易道图片选取的问题,我们用官方推荐的图片再测试了一遍:

输出的带贴图模型和素模效果差距仍然较大:


未来应用浅析

从论文图4展示效果我们可以看到,作为数字化内容创作还是高效高质的。

们尝试将无聊猴NFT转换为3D模型的过程中发现,虽然模型能够基本还原猿猴的特征,但在细节表现上还有提升空间。


AM易道在测试过程中总结以下关键问题:

  1. 表面分辨率问题:当前三平面解码器输出的模型表面细节明显不足,与专业建模的效果还有较大差距。

  2. 计算资源需求:要提升模型分辨率,可能需要更强大的计算资源支持,这增加了实际应用的成本。

  3. 打印适配性:现阶段的输出模型仍需要额外的大量再处理、后处理。

虽然InstantMesh等一种工具用于数字资产3D打印实体化实践还不太行;

跳出实体制造的思维框架,这项技术在数字世界中可能性依旧很多:

  • 游戏开发者能够瞬间将概念草图转化为生动的3D角色;

  • 动画工作室的制作流程将被革新;

  • 社交媒体将充满可交互的3D内容;

  • 教育培训变得更加直观生动;

  • 元宇宙的内容创作门槛将大幅降低;

在数字艺术领域,创作者们可以探索全新的艺术形式,打破维度的界限。
这不仅仅是技术的进步,更是创意表达的一场平权革命。
开源的力量:AM易道最后聊两句
令人兴奋的是,InstantMesh团队已经在GitHub(https://github.com/TencentARC/InstantMesh)开源了完整的代码和预训练模型,已经获得超过3500个星星!

任何对3D内容创作感兴趣的读者都能自由地探索和改进这项技术。
项目包含了详尽的文档说明、模型权重和演示案例。
演示案例链如下,读者可以自行尝试图片转三维模型:https://huggingface.co/spaces/TencentARC/InstantMesh

感谢您阅读到了最后,如果觉得AM易道文章有价值,请您点赞、转发、关注AM易道,与您一道深度读懂数字制造的过去、现在和未来。


AM易道
为3D打印以及人工智能从业者提供有价值的信息。(行业分析,科技树展望,竞争策略,内幕消息)
 最新文章