深圳大学|基于深度块匹配和成对排序学习的图像复制-移动篡改检测(TIP 2024)

文摘   2024-11-08 09:01   北京  



一、研究背景


随着数字图像编辑工具的广泛应用,图像伪造在日常生活中变得愈加普遍。复制粘贴伪造(Copy-Move Forgery,CMF)是其中常见的一种手法,通过复制图像中的某一部分并将其粘贴至另一位置,以篡改图像的原始内容。虽然现有的深度学习算法在图像伪造检测领域取得了显著进展,但仍然面临以下挑战:1)泛化能力不足:大多数深度CMF检测算法依赖低分辨率的高语义特征,容易对训练集中出现的对象特征过拟合,导致在实际应用中的泛化能力较差,尤其是在应对背景区域的复制粘贴伪造时表现不佳。2)难以实现点对点匹配:现有的深度检测方法缺乏构建源/目标区域之间点对点匹配的有效机制,导致检测结果的可解释性和可靠性难以得到充分保证。3)源/目标区域区分能力薄弱:现有方法主要依赖卷积操作进行源/目标区域的区分,未能充分利用点对点匹配的先验信息。当目标区域与背景高度融合或者源/目标区域重合时,源/目标区分的准确性显著降低。

二、研究方法    


图1本文提出的复制-粘贴篡改检测框架


图2本文提出的深度可微跨尺度PatchMatch框架


针对上述问题,本研究提出了一种基于深度PatchMatch(PM)和排序学习的CMF检测新框架D2PRL,如图1所示。有别于依赖卷积神经网络经典范式的现有方法,D2PRL旨在高分辨率特征图上实现精确的点对点匹配,进一步利用匹配关系与排序学习方法来定位伪造区域并区分源/目标区域。具体地,框架包括两个主要过程:1)深度可微跨尺度PatchMatch:通过构建深度可微的跨尺度PatchMatch算法,生成密集场的点对点匹配关系,并利用密集线性拟合技术精确定位伪造区域。2)pairwise排序学习框架:结合复制粘贴篡改的先验知识,构建pairwise排序学习框架,以实现源/目标区域的有效分离。该框架的核心动机是:在正确匹配的点对中,如果一个点属于源区域,那么对应的另一个点必然属于目标区域,因此源/目标区分只需比较两个点中谁更符合源(或目标)区域的特性。模型代码:https://github.com/byc33/D2PRL   
 

三、实验结果


表1 CASIA CMFD dataset上的三通道检测结果


2 CASIA CMFD dataset上的单通道检测结果  

3 CoMofoD数据集上的单通道检测结果

图3 当伪造区域仅发生在背景区域时的检测效果

图4 当图像中出现多个相似伪造元素时的检测效果

图5 当伪造区域与背景高度融合时的检测效果

图6 在CMH数据集上的部分检测结果


实验结果表明,D2PRL框架在多个数据集上的检测准确率和泛化能力得到了显著提升,能够有效地识别和区分伪造图像中的源区域和目标区域。即便在多种攻击手段(如旋转、缩放和噪声添加)下,D2PRL依然展现出强大的鲁棒性。此外,与传统基于手工特征的算法相比,D2PRL在单通道和三通道检测任务中均表现优异,特别是在检测背景伪造时,显示出更高的精确度和更强的细节捕捉能力,进一步验证了其在复杂伪造场景下的应用潜力。   

四、论文信息


相关论文已被IEEE Transactions on Image Processing录用,作者为深圳大学的李元满,何颖杰、陈昌盛、李斌、李霞,宁波大学的董理以及澳门大学的周建涛。

Yuanman Li, Yingjie He, Changsheng Chen, Li Dong, Bin Li, Jiantao Zhou, and Xia Li, “Image Copy-Move Forgery Detection via Deep PatchMatch and Pairwise Ranking Learning”, IEEE Transactions on Image Processing, accepted, 2024.(点击下方阅读原文查看论文全文



供稿:李元满

隐者联盟
本公众号主要推介多媒体、人工智能、信息安全等方面的最新研究进展,愿与同行携手,共同推动科学研究向前发展。
 最新文章