应众多读者的需求和建议,遥感地理视界创建了学习交流群,想加入交流的可扫描下方二维码添加。请进群后按照群公告备注如“学位-学校(或机构)-昵称”格式(详情请查看公众号置顶推文)。
标题:PolyR-CNN: R-CNN for end-to-end polygonal building outline extraction
期刊:《ISPRS Journal of Photogrammetry and Remote Sensing》(中科院1区Top, IF=10.6)
作者:Weiqin Jiao, et al.
doi:https://doi.org/10.1016/j.isprsjprs.2024.08.018
近年来,多边形建筑轮廓提取一直是遥感图像处理领域的研究重点。传统的提取方法通常将这一复杂任务分解为多个子任务,并采用精心设计的架构来实现。尽管这些方法在准确性上取得了一定的成果,但在训练和推理过程中往往效率不高。本文提出了一种名为PolyR-CNN的端到端框架,它能够直接从遥感图像中预测矢量化的建筑多边形和边界框,显著提高了计算效率。PolyR-CNN仅利用感兴趣区域(RoI)的特征进行预测,简化了复杂设计的必要性。此外,本文还提出了一种新颖的顶点提议特征方案,以指导RoI特征预测更规则的建筑。PolyR-CNN还能够通过简单的后处理方法处理带有空洞的建筑,这在以往的端到端方法中是不常见的。本研究使用了两个与矢量化建筑轮廓提取相关的数据集:CrowdAI Mapping Challenge数据集和Inria Aerial Image Labeling数据集。CrowdAI数据集包含280741张训练图像和60317张测试图像,而Inria数据集包含360张5000×5000像素的航拍图像,这些图像来自10个不同城市,建筑结构差异显著。由于Inria数据集的原始注释是光栅化的二进制掩模,研究者将其转换为矢量格式。在实验中,PolyR-CNN采用了ResNet50、ResNeXt-101和Swin-Base作为骨干网络,并利用特征金字塔网络(FPN)提取多尺度特征图。PolyR-CNN的核心思想是将建筑多边形视为边界框的扩展,并利用RoI特征生成最终预测。该模型包含6个连续的层,每层都包含顶点提议特征提取模块、RoI特征引导模块和四个特定任务的预测头。PolyR-CNN在CrowdAI数据集上的表现与最先进的方法相当,甚至在MS-COCO指标上超越了所有端到端方法。在Inria数据集上,尽管面临更复杂的建筑类型和内部多边形的挑战,PolyR-CNN仍然能够以相对较高的准确度提取多边形建筑轮廓。与需要建筑掩模的分割基础方法相比,PolyR-CNN在IoU和准确度上的表现稍逊,但在推理速度上更快。此外,PolyR-CNN在处理带有空洞的建筑时表现出色,尽管在内部轮廓的处理上倾向于生成不规则形状。在CrowdAI数据集上,PolyR-CNN实现了79.2的平均精度(AP),在Inria数据集上,尽管没有建筑掩模作为先验知识,其IoU和准确度分别为68.35和95.09,FPS达到35.73。此外,PolyR-CNN在训练收敛速度、模型复杂性和推理速度方面均优于其他端到端方法。例如,与PolyBuilding相比,PolyR-CNN只需要一半的训练周期,并且在推理期间运行速度明显更快。这些结果表明,PolyR-CNN在建筑实例分割和多边形质量方面具有竞争力,同时在模型复杂性和推理速度方面具有显著优势。PolyR-CNN作为一种新的端到端方法,通过仅依赖RoI特征直接预测建筑多边形,展现了在建筑轮廓提取任务中的高效性和准确性。与需要复杂网络结构或多模型架构的方法相比,PolyR-CNN以其简洁性和计算效率脱颖而出。尽管在处理建筑角落时可能会产生冗余顶点,且在IoU指标上与最先进的分割基础方法相比还有一定差距,但PolyR-CNN在建筑实例分割和边界质量方面的表现仍然值得肯定。此外,PolyR-CNN是第一个能够在Inria数据集上处理带有空洞建筑的端到端方法。总体而言,PolyR-CNN为建筑轮廓提取提供了新的视角,并有望推动未来相关研究的发展。未来的工作将集中在如何有效地整合额外的几何约束,同时保持模型的计算效率,并提高对复杂建筑结构的提取精度。文章来源 :
Jiao, W., Persello, C., & Vosselman, G. (2024). PolyR-CNN: R-CNN for end-to-end polygonal building outline extraction. ISPRS Journal of Photogrammetry and Remote Sensing, 218, 33-43.
免责声明 :
本公众号发布的内容仅供学习交流使用,内容版权归原作者所有。如有侵犯您的权益,请及时与我们联系。