西安交大 | CVPR 2024 | 在自动驾驶中对单目深度估计的物理3D对抗攻击

文摘   2024-07-16 09:31   北京  

欢迎关注微信公众号“机器人EmbodiedAI”

论文题目:Physical 3D Adversarial Attacks against Monocular Depth Estimation in Autonomous Driving

论文链接:https://openaccess.thecvf.com/content/CVPR2024/papers/Zheng_Physical_3D_Adversarial_Attacks_against_Monocular_Depth_Estimation_in_Autonomous_CVPR_2024_paper.pdf

代码链接:https://github.com/Gandolfczjh/3D2Fool

一、方法

基于深度学习的单目深度估计(MDE)广泛应用于自动驾驶中,已知容易受到对抗性攻击的影响。先前针对MDE模型的物理攻击依赖于2D对抗性补丁,因此只影响MDE地图中的小范围局部区域,在不同视角下效果不佳。为了解决这些限制,我们提出了3D Depth Fool(3D2Fool),这是针对MDE模型的首个基于3D纹理的对抗攻击。3D2Fool被专门优化为生成3D对抗纹理,对车辆模型类型不加区分,并且在恶劣天气条件下(如雨雾)具有改进的鲁棒性能。实验结果验证了我们的3D2Fool在包括车辆、MDE模型、天气条件和视角等多种场景中的卓越表现。在实际物理车辆模型上使用打印的3D纹理进行的实验进一步证明,我们的3D2Fool能够引起超过10米的MDE误差。

我们的贡献如下:

  • 我们提出了3D Depth Fool(3D2Fool),这是针对MDE模型的首个3D对抗伪装攻击。3D2Fool可以在各种物理约束条件下应用于广泛的目标车辆(甚至包括行人),如视角变化。
  • 我们设计了一个名为纹理转换的新模块,用于3D2Fool中,通过优化独立于特定车辆UV映射的2D对抗性纹理种子,生成物体无关的3D伪装纹理。
  • 我们设计了一个名为物理增强的新模块,用于3D2Fool中,通过将与天气相关的数据增强集成到攻击优化中,提高3D2Fool在各种天气条件下的鲁棒性。

二、实验

这里展示部分结果,更多结果请参考论文。

三、总结

本文中,我们提出了3D Depth Fool(3D2Fool),并验证其在包括车辆、MDE模型、天气条件和视角在内的各种场景中,相较于当前的最先进攻击方法表现出卓越性能。特别是,我们通过在缩放的汽车模型上打印和粘贴3D对抗纹理,在不同的背景和光照条件下验证了3D2Fool在物理世界中的有效性。

对于未来的工作,我们将进一步改进3D2Fool,特别是在相对具有挑战性的设置中,例如在纹理覆盖区域有限的特定角度和具有复杂形状的车型上。此外,我们将探索3D2Fool在实际的黑盒攻击场景中的可迁移性。


机器人EmbodiedAI
与世界交互
 最新文章