科学家在用于遥感的人工智能模型中发现了重大漏洞,突显了提高鲁棒性以确保在关键应用(如灾害响应)中可靠性能的必要性。
近年来,人工智能(AI)和深度学习(DL)模型在遥感领域的应用愈发广泛,成为政府情报、环境监测、城市规划和灾害管理等重要领域的核心工具。
然而,最新研究揭示,现有的深度学习模型在处理遥感图像时,存在一定的脆弱性,可能遭受物理和数字攻击,影响其在关键应用中的可靠性。
来自西北工业大学和香港理工大学的研究团队,以西北工业大学电子信息学院教授梅少辉牵头,进行了对深度学习模型鲁棒性的大规模审查。
该研究结果发表在《Journal of Remote Sensing》上,重点分析了这些模型在遥感任务中,特别是图像分类与目标检测任务中的表现,揭示了它们在面对自然噪声和对抗攻击时的脆弱性。
深度学习模型的脆弱性分析
研究团队发现,尽管深度学习模型在遥感应用中表现出色,但它们容易受到各种干扰和攻击。
例如,自然噪声(如雨、雪、雾)和对抗攻击(如快速梯度符号法FGSM)都能显著影响模型的性能。此外,物理攻击手段,如在物体上贴附特殊的“补丁”,也能有效欺骗模型。
研究还指出,弱检测器(如YOLOv2)更容易被攻击,而更鲁棒的模型表现出更强的抗干扰能力。同时,技术手段如“momentum”和“Dropout”可以增强攻击的效果。
研究人员还通过物理攻击验证发现,现实中的物理攻击手段与数字攻击具有同等威胁,比如在关键区域放置物理补丁,可以让模型无法准确识别目标。
改善深度学习模型的鲁棒性
为了进一步提高深度学习模型在遥感领域的可靠性,研究团队总结了多种提升模型鲁棒性的方法。
他们发现,训练对抗攻击的过程与神经网络训练类似,受训练数据、优化策略等因素的影响。对于像YOLOv2这样的弱检测器,只需学习有限的信息就能成功实施攻击,而对更鲁棒的检测器,攻击则难以奏效。
此外,研究表明,物理攻击不仅仅局限于目标本身,操控目标的背景也可以显著削弱模型的检测能力。
例如,通过在目标背景中添加物理补丁,可能比直接对目标实施补丁攻击更加实用。
未来方向
研究团队表示,当前的分析只是为提升深度学习模型鲁棒性提供了一个初步框架。接下来的工作将包括进一步优化基准测试框架,并进行更广泛的模型和噪声类型测试。
最终目标是推动遥感深度学习模型的安全性与鲁棒性提升,确保这些技术在环境监测、灾害响应和城市规划等关键应用中的可靠性和有效性。
欢迎交流
笔者长期从事人工智能、遥感、大模型等业务
欢迎添加微信交流