前沿:生成式神经网络助力非同步结构光三维成像

文摘   科学   2024-08-28 09:00   北京  
撰稿人:吕磊 副教授 河南工业大学复杂性科学研究院

撰稿人:苏志龙 副教授 上海大学力学与工程科学学院

撰稿人:步晨皓 2021级硕士研究生 河南工业大学信息科学与工程学院

研究背景

结构光三维成像因其非接触、高精度和高效性等特点在工业检测、智能制造、医学成像和虚拟现实等领域中得到了广泛应用。条纹投影轮廓术是结构光三维成像中应用最广泛的技术之一,通过在物体表面投射一系列规则的条纹图像,并利用相机同步捕捉条纹的变形图像并分析正弦波条纹的相位信息,进而精确重建物体的几何三维形态。

在典型的结构光系统中,投影仪和相机必须严格同步,即在条纹投射与拍摄需交替进行,相机需准确、完整的捕捉投射条纹图像。然而,在实际应用中,由于硬件成本、环境干扰以及其他非理想因素的影响,高精度的同步时序往往面临挑战。例如,应用广泛的消费级设备中不包含同步电路,这使得结构光技术的推广应用受到了限制。当同步时序不满足时,投射条纹可在相机的曝光时间内发生切换,导致图像混叠,引发三维重建失败。

为去除结构光技术中的同步约束,拓展其系统灵活性,本文提出基于非同步结构光系统实现高精度三维重构。本方法将显著降低系统的复杂度和成本,并扩展其在复杂动态环境中的应用潜力,为新一代智能设备的开发奠定技术基础。

导读

近日,来自河南工业大学、上海大学、国防科技大学和奥普特科技股份有限公司的研究人员公布了一项非同步结构光三维成像技术的前沿进展。

该成果以“Generative deep-learning embedded asynchronous structured light for three-dimensional imaging为题发表在国际光学顶尖学术期刊Advanced Photonics上。该研究报告了一种将生成式神经网络与结构光技术相结合的创新方法,去除了结构光技术中的同步约束,显著提高结构光成像系统的灵活性和经济性。河南工业大学吕磊副教授为论文第一作者,上海大学苏志龙副研究员为论文通讯作者,2021级硕士研究生步晨皓为第二作者。


主要研究内容

 

图1.总体流程图。A 同步FPP系统和异步FPP系统示意图。B用于收集数据集的异步 FPP 系统的实验设备图。C 在生成式学习框架内训练APSNet的示意图。D 使用APSNet生成的图案进行三维成像流程图。
本研究通过将传统同步条纹投影(FPP)系统与非同步FPP系统之间做横向对比,并对各个系统之间的捕获时序进行分析。指出现有的传统同步FPP结构光系统局限性,诱发该问题的根源是传统系统不包含相机成像瞬态响应信息,无法描述相机曝光时间内条纹切换等瞬态变化,最终导致三维重构具有较大的局限性。进而基于相机成像理论基础对非同步FPP系统的条纹混叠形成原因进行分析,得到异步条纹成像数学模型。提出一种U-Net的自动编码器-解码器架构的生成式深度神经网络(APSNet),通过探索条纹混叠的内在原理,直接学习底层条纹混叠特征。在条件生成对抗学习框架内进行训练,利用统计信息损失函数对网络训练进行监督,分离混叠条纹图案获得非混叠图案的功能,最终实现高精度三维重建,整体技术路线图1所示。

技术突破与创新点

本研究去除了传统结构光三维成像技术中的同步约束,针对非同步引起的条纹混叠问题进行深度剖析,基于生成式神经网络分离了混叠条纹图像,为计算成像领域带来了新的可能性。在非同步成像系统中,投影仪和相机独立工作,提高了系统灵活性。 

该研究通过理论分析发现,非同步结构光成像中的条纹混叠具有明显的几何不变加性特征。通过理论上统一几何和统计学习的原始对抗框架进行训练,生成模型可以学习识别这些混叠模式,从而确保在缺乏同步的情况下实现准确的 3D 重建。研究人员的新方法消除了投影和成像设备之间同步的需要,使它们可以独立运行。这种被称为生成异步神经结构光成像的技术简化了系统并增强了其多功能性。该方法利用生成深度神经网络(称为 APSNet),特别是类似 U-Net 的编码器-解码器架构来处理捕获的图像并准确分离投影仪和相机不同步时出现的混叠模式。

为了验证APSNet性能,首先从条纹图案分离进行数据评估。图2所示,通过异步系统采集得到混叠条纹图案(c),经过训练的APSNet分别生成(d)和(e),(f)和(g)是真实和估计图案之间的二维差异图。通过检查,可以看到APSNet的生成结果与相应的真实条纹图案之间的差异非常小,并且计算了两个差异图中的平均误差和相关的标准偏差,分别为(f)的1.69和2.13,(g)的1.94和2.88。

图 2.显示了使用APSNet生成和分离混叠的流程:(a)-(b)是由同步系统捕获的真实条纹图案,(c)是由异步系统捕获的相应混叠图案,(d)-(e)显示了(c)的分离结果,(f)-(g)展示了分离和真实条纹图案之间的绝对差异。

其次,通过进行相位计算来检查模型的性能。图3中(a)和(b)所示。从外观上可以看出,这两个相位图几乎是相同的。为了进行定量比较,沿着y=38从两个图中采样得到两个相位曲线,在图(c)中显示这两个相位曲线相当一致,最大差异为0.035弧度。

图3.同步和异步情况下包裹相位图的比较。

最后,从三维重建方面进行数据分析。将图4(a)中的同步条纹图案的重建结果作为基准。从图4(c)中由APSNet分离的条纹图案重建的3D形状非常接近基准,直接从图4(b)中的AFP重建的3D形状具有明显的形状信息损失。

图4.分别由(a)同步、(b)异步和(c)APSNet生成的条纹图重建的结果。

此外,沿着图4(a)中所示的虚线沿着从每个重建模型中采样深度曲线,结果图5所示。

图5.(a)-(c)是从图4中取样的深度曲线。(d)和(e)分别是(b)和(c)相对于(a)的误差。

相比之下,使用AFP重建的误差范围为-5.000到3.600 mm,STD为1.713 mm,比本研究的方法高3个数量级。

为了验证网络泛化性能,选择单物体场景和多物体场景下进行三维重建,图6和图7所示。这些结果以及在计算精度方面的表现,凸显了 APSNet 在基于 AFP 的结构光三维成像应用方面的潜力。

图6.利用同步、异步和 APSNet 产生的正弦和二进制条纹图案分别对不同物体进行重建的结果。

图 7.多物体异步三维成像的泛化能力演示:(a)测量物体及其条纹图案示例,()为混叠条纹图,()和()是由 APSNet 分离的估计条纹图;(b)-(d)分别是使用同步、异步和 APSNet 生成的图案重建的结果。

结论与展望

本研究提出了一种高灵活性的非同步结构光三维成像技术,去除了相机和投影仪之间的同步约束,提高了系统灵活性。通过分析非同步混叠条纹的成像机理,基于生成式神经网络分离了混叠条纹,获得了高精度的条纹图强度信息,验证了生成式神经网络在结构光三维成像中应用的效果。

文章信息

吕磊、步晨皓、苏志龙、关棒磊、于起峰、潘威、张庆辉

全文链接:

https://www.researching.cn/articles/OJf102ceb33dc54d3f

       DOI:10.1117/1.AP.6.4.046004

主要作者介绍

吕磊,博士,现任河南工业大学副教授,博士生导师。主要从事三维感知、三维数据处理、医工交叉融合等研究工作。主持国家自然科学基金项目2项;河南省自然科学基金面上项目1项;企业委托项目5项;发表高水平SCI论文40余篇;以第一完成人获批河南省科技进步奖三等奖1项;出版专著教材2部。郑州市高层次人才,郑州市1125创业紧缺人才。

苏志龙,博士,现任上海大学力学与工程科学学院副研究员,力学系副主任,硕士生导师。现主要从事几何光学成像与光感知力学、视觉智能以及几何深度学习等方面的研究工作。主持完成国家自然科学基金1项、骨干参与完成国家自然科学基金重大仪器专项和国家科技部大仪专项各1项、主持企事业单位委托研发项目5项;在国内外重要学术期刊发表高水平30余篇;获得2023年上海市科学技术进步奖二等奖1项。

步晨皓,硕士研究生,2021年开始在河南工业大学信息科学与工程学院攻读硕士学位,主要从事结构光计算成像,深度学习等方向的研究。


 点击 原文链接 查看全文

明:本文旨在传递更多科研资讯及分享,所有其他媒、网来源均注明出处,如涉及版权问题,请作者第一时间后台联系,我们将协调进行处理(按照法规支付稿费或立即删除),所有来稿文责自负,专委会仅作为分享平台。转载请注明出处,如原创内容转载需授权,请联系邮箱:cita@csoe.org.cn



公众号投稿请联系:cita@csoe.org.cn
商务合作/文章转载请联系:010-63726007



欢迎多多关注

  
   欢迎分享                                                 点赞,在看

CSOE计算成像CITA
中国光学工程学会计算成像专委会官微
 最新文章