一、研究背景
随着数字图像编辑工具的广泛应用,图像伪造在日常生活中变得愈加普遍。复制粘贴伪造(Copy-Move Forgery,CMF)是其中常见的一种手法,通过复制图像中的某一部分并将其粘贴至另一位置,以篡改图像的原始内容。虽然现有的深度学习算法在图像伪造检测领域取得了显著进展,但仍然面临以下挑战:1)泛化能力不足:大多数深度CMF检测算法依赖低分辨率的高语义特征,容易对训练集中出现的对象特征过拟合,导致在实际应用中的泛化能力较差,尤其是在应对背景区域的复制粘贴伪造时表现不佳。2)难以实现点对点匹配:现有的深度检测方法缺乏构建源/目标区域之间点对点匹配的有效机制,导致检测结果的可解释性和可靠性难以得到充分保证。3)源/目标区域区分能力薄弱:现有方法主要依赖卷积操作进行源/目标区域的区分,未能充分利用点对点匹配的先验信息。当目标区域与背景高度融合或者源/目标区域重合时,源/目标区分的准确性显著降低。二、研究方法
图1本文提出的复制-粘贴篡改检测框架
图2本文提出的深度可微跨尺度PatchMatch框架
针对上述问题,本研究提出了一种基于深度PatchMatch(PM)和排序学习的CMF检测新框架D2PRL,如图1所示。有别于依赖卷积神经网络经典范式的现有方法,D2PRL旨在高分辨率特征图上实现精确的点对点匹配,进一步利用匹配关系与排序学习方法来定位伪造区域并区分源/目标区域。具体地,框架包括两个主要过程:1)深度可微跨尺度PatchMatch:通过构建深度可微的跨尺度PatchMatch算法,生成密集场的点对点匹配关系,并利用密集线性拟合技术精确定位伪造区域。2)pairwise排序学习框架:结合复制粘贴篡改的先验知识,构建pairwise排序学习框架,以实现源/目标区域的有效分离。该框架的核心动机是:在正确匹配的点对中,如果一个点属于源区域,那么对应的另一个点必然属于目标区域,因此源/目标区分只需比较两个点中谁更符合源(或目标)区域的特性。模型代码:https://github.com/byc33/D2PRL 三、实验结果
表1 CASIA CMFD dataset上的三通道检测结果
表2 CASIA CMFD dataset上的单通道检测结果
图3 当伪造区域仅发生在背景区域时的检测效果 |
图4 当图像中出现多个相似伪造元素时的检测效果 |
图5 当伪造区域与背景高度融合时的检测效果 |
图6 在CMH数据集上的部分检测结果 |
实验结果表明,D2PRL框架在多个数据集上的检测准确率和泛化能力得到了显著提升,能够有效地识别和区分伪造图像中的源区域和目标区域。即便在多种攻击手段(如旋转、缩放和噪声添加)下,D2PRL依然展现出强大的鲁棒性。此外,与传统基于手工特征的算法相比,D2PRL在单通道和三通道检测任务中均表现优异,特别是在检测背景伪造时,显示出更高的精确度和更强的细节捕捉能力,进一步验证了其在复杂伪造场景下的应用潜力。 四、论文信息
相关论文已被IEEE Transactions on Image Processing录用,作者为深圳大学的李元满,何颖杰、陈昌盛、李斌、李霞,宁波大学的董理以及澳门大学的周建涛。Yuanman Li, Yingjie He, Changsheng Chen, Li Dong, Bin Li, Jiantao Zhou, and Xia Li, “Image Copy-Move Forgery Detection via Deep PatchMatch and Pairwise Ranking Learning”, IEEE Transactions on Image Processing, accepted, 2024.(点击下方阅读原文查看论文全文)