首页
时事
民生
政务
教育
文化
科技
财富
体娱
健康
情感
更多
旅行
百科
职场
楼市
企业
乐活
学术
汽车
时尚
创业
美食
幽默
美体
文摘
注意力引导的标志检测与识别
文摘
2024-11-13 12:36
中国
作者:张冬明,靳国庆,鲁鼎煜等
来源:《软件学报》
编辑:陈萍萍的公主@一点人工一点智能
原文:https://www.jos.org.cn/html/2024/11/7033.htm
摘要
:自然场景中的实体标志,如商标、交通标志等,易受拍摄角度、所依附物体形变、尺度变化等影响,导致检测精度降低。为此,提出一种注意力引导的标志检测与识别网络(AGLDN),联合优化模型对多尺度变化和复杂形变的鲁棒性。
首先通过标志模板图像搜集及掩码生成、标志背景图像选取和标志图像生成创建标志合成数据集;然后基于RetinaNet和FPN提取多尺度特征并形成高级语义特征映射;最后利用注意力机制引导网络关注标志区域,克服目标变形对特征鲁棒性的影响,实现标志检测与识别。
实验结果表明,所提方法可以有效降低尺度变化、非刚性形变的影响,提高标志检测准确率。
引言
标志(logo)作为一种信息传播的标识性视觉符号,在产品或组织宣传上起到关键作用。随着标志图片的快速增长,标志检测与识别在广告效果评估、商标侵权分析、智能交通系统、仿冒商品检测等各个领域具有广泛的应用价值[
1
−
4
]。标志类别丰富、表现形式多样,如何利用智能化的分析技术实现标志检测与识别是亟待解决的实际工程应用课题。
标志更多为自然场景中包含的实体标志,如商标、交通标志等,而由于自然场景的视频或图片的摄制条件不同,包括拍摄位置、角度、光线,而导致标志呈现多变尺度、非刚性形变,同时亮度、对比度也会存在复杂变化。现有目标检测技术没有专门针对多尺度和非刚性形变等问题进行模型联合优化,在标志面临复杂变化时难以获得满意的结果。
自然场景中标志存在尺度变化现象,会造成提取的特征不对齐问题。多尺度目标特征提取和融合是一种有效的解决方法,它通过融合低层特征的描述性内容和高级特征的语义信息,来提高尺度多变目标的特征鲁棒性[
5
]。RetinaNet[
6
]作为使用特征金字塔网络(feature pyramid network,FPN)[
7
]的单阶段目标检测网络,已经在目标检测领域取得了优异的效果。
另一方面,标志出现在柔性载体或者非平面实体上容易存在非刚性形变。深度卷积网络基于普通卷积产生的局部感受野进行特征提取时,如果采样的特征包含了过多超出目标区域的内容,将会导致特征受到图像中非目标内容的影响,降低检测与识别的精度[
8
]。
针对提高网络对形变目标的建模能力,Zhu等人[
8
]提出了可变形卷积,来提高感受野中目标特征的权重,也有很多网络通过引入可变形卷积来改善对形变目标的检测与识别能力。例如Liu等人[
9
]提出一种门控特征融合模块,通过注意力机制来有效融合可变形卷积特征和普通卷积特征,综合提高在目标变形时网络的检测与识别能力。
考虑到标志虽然存在非刚性形变,但是也有部分标志只含有尺度变化问题,因此,可以使用注意力机制来引导可变形卷积特征和普通卷积特征的融合,从而有效提升感受野中目标特征的权重,降低目标变形对检测性能的影响。此外,标志类别丰富且新类别不断涌现,现有标志数据集无法覆盖所有标志类别,因此,标志检测与识别同样面临标注数据集不足的难题。
为此,本文提出一种注意力引导的标志检测与识别网络,通过联合模型优化,提高其对尺度变化、非刚性形变的鲁棒性。
本文主要贡献总结如下:
(1) 针对标志类别丰富且新类别不断涌现,导致数据集不能覆盖所有标志类别的问题,本文提出一种标志数据合成方法,合成符合真实标志图像内容分布的数据集,提高模型泛化能力。
(2) 受拍摄位置、角度的影响,标志容易出现尺度变化。本文使用RetinaNet和FPN提取多尺度特征构建多个高级语义特征映射,并通过融合低层特征的描述性内容和高级特征的语义信息提高尺度多变目标的特征鲁棒性。
(3) 受到拍摄角度、所依附载体变形的影响,标志容易产生非刚性形变。本文使用注意力引导机制来加权融合普通卷积特征和可变形卷积特征,从而有效提升感受野中目标特征的权重,降低目标变形对检测性能的影响。并在统一网络内对多尺度和注意力机制联合优化,实验表明所提方法显著提升了标志检测性能。
本文第1节介绍标志检测与识别的相关工作。第2节介绍标志数据合成工作。第3节介绍注意力引导的标志检测与识别网络AGLDN。第4节为实验设置与结果分析。最后为本文结论。
相关工作
标志检测与识别是对自然场景中的标志进行定位和分类,其属于目标检测领域,所采用的主要方法可分为基于手工特征的方法和基于深度学习的方法。基于手工特征的视觉标志检测与识别主要包括建议区域提取、手工特征提取和建议区域分类[
10
],其性能严重依赖手工设计的特征,而在更换任务或者数据集变化时手工特征的鲁棒性难以保证。此外,这类方法通常使用传统分类器,计算复杂度高且泛化能力难以保证,限制了视觉标志检测与识别中速度和精度的提升。
基于深度学习的标志识别方法主要分为两阶段方法和单阶段方法[
10
]。两阶段检测方法以R-CNN (Region-CNN)[
11
]、Fast R-CNN[
12
]、Faster R-CNN[
13
]为代表,在第1阶段进行目标建议区域的提取,第2阶段进行目标的分类,其大幅度提升了目标检测与识别的精度,因此有研究者将两阶段方法应用在视觉标志的检测与识别中。
Hoi等人[
14
]分别使用了R-CNN、Fast R-CNN、SPP-Net[
15
]进行视觉标志检测与识别,并比较了相关精度。Eggert等人[
16
]通过使用Fast R-CNN计算的特征表示直接对大目标进行识别,同时以高概率预测包含小对象的显著区域并放大,并计算这些放大区域的新特征表示,在保持较低计算开销的同时提高了多尺度目标的检测质量。
Li等人[
17
]提出使用Faster R-CNN进行视觉标志的检测与识别,使用迁移学习策略优化网络参数,基于所使用的数据集使用K均值聚类获取合适的锚框尺度,以此提高检测精度。
虽然两阶段方法提高了建议目标区域生成的质量,同时获得较高的检测准确率,但是整体检测速度较低,无法满足实时性需求。为了提高目标检测速度,开始研究单阶段检测器,代表性方法包括YOLO[
18
]、SSD[
19
]和RetinaNet[
6
]。单阶段方法提高了检测与识别的灵活性,但是整体检测精度相较于两阶段方法有一定差距,因此有研究者提出利用特征图之间的上下文关系,增强多尺度目标的特征鲁棒性,以提高单阶段目标检测方法的性能。
RetinaNet[
6
]通过结合基础特征提取网络和FPN提取多尺度特征,并在不同尺度的特征图上设定不同尺度的锚框(anchor),使用大尺寸特征图预测较小的目标,小尺寸特征图预测较大的目标,有效提升了对不同尺度目标的检测与识别能力。
Yang等人[
20
]提出了一个Inception-Text模块,通过不同大小的卷积来处理目标的多尺度,并在每个分支的最后添加了一个可变形卷积(deformable convolution)[
21
]处理多方向问题,然后融合不同大小卷积分支提取的特征,来提高多尺度多方向目标的检测性能。虽然引入多尺度特征融合可以提高对多尺度目标的检测能力,但进行特征融合时,高级特征的表达能力将影响融合后的特征质量,因此,有研究者致力于提高多层次特征质量,进而提升高级语义特征和底层特征的融合效果。
Hou等人[
5
]提出了一种多尺度特征解耦网络,在网络中引入了一个平衡的特征金字塔模块(balanced feature pyramid,BFP),使用相同的深度特征映射来多层次特征,在FlickrLogos-32数据集[
22
]上mAP达到了86.2%。但是使用BFP方法会显著增加特征融合的复杂度,Yang等人[
20
]针对多方向多尺度的场景字符,并借鉴了Inception网络[
23
]的构建思想提出了一个Inception-Text模块,将Inception-Text添加在网络的高层,在不过多提高计算复杂度的同时提高语义特征的质量,在ICDAR2015数据集[
24
]上取得了90.5%的检测精度,提高了多尺度多方向目标的检测性能。
在提高特征质量时,有研究者在网络中引入注意力机制提高目标特征权重,优化特征的表达能力,进而提升目标检测器性能。例如,Woo等人[
25
]提出了卷积注意力机制模块(convolutional block attention module,CBAM),其首先使用通道注意力加权特征,以增加有效通道的权重,在通道注意力模块后引入空间注意力模块,提高空间上有效特征的关注程度。
虽然CBAM被广泛应用于检测器的特征细化,但是其通过级联通道注意力和空间注意力来优化特征,而且使用了全连接层学习注意力权重,导致参数量远远大于卷积结构,严重影响了模型推理速度。为了降低计算复杂度,Hu等人[
26
]提出了SE (squeeze-and-excitation)模块,采用了一种“特征重标定”策略自适应地重新校准通道的特征响应,增强有效通道的权重,提高特征质量。
而SE结构通过全连接层(fully connected layer,FC)降低特征维度以控制模型的复杂性,虽然取得了一定的效果,但是降维会影响特征的优化效果。Wang等人[
27
]提出了ECA (efficient channel attention)模块,在SE的基础上添加适当的通道交互,使用卷积核大小为k的一维卷积来捕获跨通道的交互信息,不仅大幅降低了参数量与复杂度,而且能够有效提升感受野中目标特征权重。
除了上述基于通道和空间选择的方法之外,也有研究者提高网络对变形目标的建模能力,以此提升感受野中目标特征的权重。Dai等人[
21
]提出了可变形卷积来提高对形变目标的建模能力,其在普通卷积的操作上加入偏移量,偏移量是通过另外一个平行的普通卷积单元计算得到,并通过偏移量提高感受野中目标特征的权重。可变形卷积在建模变形目标表现出的优异性能,在很多网络中得到应用。
Zhang等人[
28
]引入可变形卷积提出了一种位置感知可变形卷积,将普通卷积和可变形卷积输出的特征进行通道组合并使用1×1卷积输出最终的特征映射,能够自适应提取非均匀分布的上下文特征,提高复杂场景中目标特征的鲁棒性。但是上述方法只是将普通卷积和可变形卷积提取的特征进行通道上的组合,并没有关注普通卷积和可变形卷积所提取特征的有效性分布。
Liu等人[
9
]提出一种门控特征融合模块,通过引入注意力门控机制来平衡普通卷积特征和可变形卷积特征,当目标的变形被精确建模时,注意力门控机制可以引导普通卷积特征和可变形卷积特征之间的融合,以有效提升在目标变形、环境变化时的目标识别能力。考虑到视觉标志虽然存在非刚性形变问题,但是也可能有标志只含有尺度变化问题,并无明显的形变,因此,引入这种注意力门控机制有可能提高模型自适应注意能力。
此外,基于深度学习方法的目标检测与识别都需要大量的标注数据去训练模型参数,以提高模型检测与识别的能力。生成高质量标注数据集的主要方法是广泛收集后进行人工标注,但是这不仅需要消耗大量的人力,也难以满足数据的多样性需求。因此针对视觉标志检测与识别任务,有研究者提出使用标志图像合成方法生成大量的数据集。标志图像合成即将视觉标志模板图像经颜色抖动、仿射变换等预处理后叠加到背景图像中,同时自动生成标注信息。
对视觉标志模板图像做大量预处理可以提高生成图像的多样性,例如Su等人[
29
]对视觉标志模板进行缩放、旋转、颜色变换等预处理,通过随机选取背景图像区域进行叠加来生成合成视觉标志图像;Jiang等人[
30
]则考虑了视觉标志模板图像的选择,其使用了透明背景的视觉标志模板和非透明背景的视觉标志模板,同时也对视觉标志模板图像进行仿射变换、随机裁剪、颜色变换、高斯模糊等一系列预处理操作,以此来提高样本的多样性。
而仅考虑对视觉标志模板图像进行预处理,只能在一定范围内提高样本多样性,因此有研究者提出对背景图像的考虑,Jiang等人[
30
]考虑在现实场景中,视觉标志会和周围场景有一定的上下文联系,为了让样本尽可能拟合真实数据的分布,其使用场景分类模型分类收集的图片,并手工配置每类视觉标志可能出现的场景,提高数据的真实程度;Song等人[
31
]自动生成包含各种立体图形的背景图像,提出了基于随机化的视觉标志数据合成,将视觉标志图像粘贴到随机颜色、形状、纹理等特征的圆柱体、盒子和平面等形状上,以此提高合成样本的多样性。
以上基于对视觉标志模板预处理和背景图像选取的方法没有关注视觉标志叠加的位置,而其影响上下文关系的和谐性,是判断合成图像是否拟合真实数据的主要依据。为此,有研究者针对合成方法开展研究,Su等人[
32
]提出了情景对抗学习方法,对初步合成的图像进行进一步的亮度、对比度等处理,用来生成上下文关系更接近真实数据的合成图像。
Gupta等人[
33
]研究了场景字符图片的合成技术,通过估计背景图像的深度和分割信息获取相对平滑区域,并将字符做随机颜色、尺度等预处理添加到背景图像的平滑区域中完成合成操作,有效拟合了真实图像的上下文关系。基于该工作,Montserrat等人[
34
]对视觉标志图像做旋转、颜色变换,并使用泊松融合将模板添加到背景图像的平滑区域中,但是泊松融合的羽化效果不符合真实图像的内容分布。这些方法主要考虑了视觉标志或场景字符预处理提高多样性、合成位置和合成方法的选择来使合成图像符合真实图像内容分布。
但是存在如下几方面问题,主要包括:
(1) 在合成时首先对视觉标志进行随机仿射变换,不符合实际情况;
(2) 任意选择叠加位置,或根据颜色相关性选择叠加位置,导致视觉标志不能跟随所依附背景的变形而变形;
(3) 在合成时使用泊松融合方法造成羽化或透明效果,不符合真实场景中视觉标志图像。
因此,生成拟合真实图像的多样化合成数据,进而提高模型的泛化能力,依然是目前亟需解决的问题。
标志数据合成方法
标志图片数量庞大、种类多样,人工标注数据耗时长,目前公开的数据集无法满足大量数据训练的需求。本文提出一种标志数据集生成方法,来拟合真实标志图像数据。生成方法主要借鉴Gupta等人[
33
]对场景字符图片的合成,并根据标志的特点进行了改进,主要流程图如
图1
所示,分为标志模板图像搜集及掩码生成、背景图像选择和标志模板图像与背景合成这3个步骤。
图1 标志数据集生成流程图
(1) 标志模板图像搜集及掩码生成
目前标志识别主要使用的数据集为FlickrLogos-32[
22
],共包含32类标志,本文同样基于FlickrLogos-32数据集,因此在生成标志数据集时,搜集的标志类别主要参考FlickrLogos-32中的32类标志图片。首先在网络中搜集对应标志图片,采用简单线性迭代聚类像素分割方法处理标志图像,自动获得超像素分割结果图,并经过人工矫正后获得标志区域,即为标志模板图像。
(2) 背景图像选择
标志数据集生成需要保证最终生成的标志图像拟合真实场景中的标志图像,因此背景图像的选择需要符合标志经常出现的场景,本文选择了FlickrLogos-32的6000张no-logo类图像作为背景图像数据源。同时考虑到标志合成到背景图像中的位置会影响到最终的生成效果,需要将标志模板图像叠加到背景图像的相对平滑区域,才能有效拟合真实场景的标志图像。本文迁移使用Gupta等人[
33
]在场景字符图像合成时对背景图像可合成区域选择方法,其主要通过图像分割和深度估计确定合适区域。
(3) 标志模板图像与背景合成
颜色常用于增加标志辨识度,但标志图像由于光照、拍摄方法等影响,会有相应的颜色变化。在合成时,本文不使用泊松融合的合成方法,而是将标志模板直接变换到背景图像中,具体步骤如下。
1) 获取每个可合成区域的轮廓坐标。
2) 将对应轮廓坐标转为3-D形式,并将区域进行旋转使其在视线正向区域。
3) 将旋转后的区域平铺到平面上,即只保留其x轴和y轴的坐标信息。
4) 获取平面的最小外包矩形,矩形可以是有角度的,并根据角度对平面区域进行旋转,使最终外包矩形角度为0.
5) 根据变换前后分割区域轮廓坐标的变化获得单应性变换矩阵H
0
:
6) 使用单应性变换矩阵H0将变换后的区域外包矩形坐标(l
1
,r
1
,r
2
,l
2
)扭曲到原图中,得到原图中区域的4点坐标
。以l
1
(x
1
,x
2
)到
的变换为例,计算公式如下:
7) 读取标准标志图片和其掩码图片,将尺度缩放为和背景图片可合成区域的外包矩形一致大小,并进行颜色抖动预处理。首先将RGB图像转换为HSV图像,然后只改变色调hue的值,变换公式如下:
其中,huec为随机值,取值范围为5–30。在变换之后转化为RGB图像。
8) 为使标志合成效果更具有真实性和随机性,通过外包矩形4个点坐标和6)中获取的坐标
重新估计单应性变换矩阵H
1
。
9) 根据单应性变换矩阵H1对标准标志图片和其掩码图像进行变换,并将变换后的图像根据掩码信息直接叠加到背景图像中,叠加方法如下所示:
其中,P(i,j)为背景图像的对应位置像素,A(i,j)为标准标志图片对应位置像素,M
s
(i,j)为掩码图像对应位置像素。将标准标志图片变换到背景图像后可以直接得到标注框。
图2
中展示了标志图像生成示例,可以看出本文生成方法可使标志随依附背景的变形而产生变形,符合真实标志图像的内容分布。同时,标志合成区域为较平滑区域,不会产生突兀感,而且也会表现出不同尺度,提高了样本的多样性,进一步增强网络的泛化能力。
图2 标志图像合成示例
注意力引导的标志检测与识别网络AGLDN
针对标志尺度变化、非刚性形变的特点,本文设计注意力引导的标志检测与识别网络(AGLDN),网络架构如
图3
所示。AGLDN基于RetinaNet构建,主要是因为RetinaNet中已经包含基础特征提取网络和基于FPN的多尺度特征融合机制,并且其作为单阶段目标检测器,可以在保证精测精度的同时提高检测的速度。
但是RetinaNet中仅简单集成了基于FPN的多尺度特征融合机制,不足以应对标志尺度变化、非刚性形变的问题,因此,本文在RetinaNet的基础上进行了相关改进,形成针对标志的检测与识别网络AGLDN,以提高网络对标志的检测与识别能力。
图3 注意力引导的标志检测与识别网络
首先,为提高网络应对标志尺度变化的问题,在网络中引入多尺度特征融合,主要包括Inception-Logo模块和基于FPN的多尺度特征融合。Inception-Logo模块通过多尺度的卷积核提取特征并进行融合,可以提高语义特征质量,有效促进后续低层特征和高级特征融合的效果。
进一步,改进基于FPN的多尺度特征融合:将深特征P6'和P7引入后续特征融合中,这是RetinaNet中不具备的。
其次,为了有效应对标志非刚性形变问题,在网络中引入了注意力引导机制来提高感受野中目标特征权重。注意力引导包括注意力门控模块(attention gated module,AGM)和基于双重高效通道注意力(efficient channel attention,ECA),其中,AGM用于平衡普通卷积特征和可变形卷积特征,当目标物体的变形被精确建模时,注意力门控机制可以引导普通卷积特征和可变形卷积特征之间的融合,以有效提升在标志变形时的特征鲁棒性。ECA机制作为轻量级的通道注意力机制,通过捕获跨通道的交互信息来生成特征权重信息,可以较小的计算代价提高特征鲁棒性。
具体地,AGLDN的基础特征提取网络选择ResNet-50,包含4个特征提取阶段,其中共含有49个卷积层;在ResNet-50之后引入多尺度特征融合,多尺度特征融合主要包括Inception-Logo模块以及基于FPN的多尺度特征融合,其可以提高多尺度特征的鲁棒性;在多尺度特征融合中引入由AGM和双重ECA组成的注意力引导机制来提高感受野中目标特征的权重,提高网络对变形目标的特征提取能力,实现高效的标志的检测与识别。
3.1 多尺度特征融合
真实场景的标志因拍摄角度、位置、焦距的变化引起尺度变化,为应对尺度多变目标的检测与识别,往往采用多尺度特征融合的方法,比如FPN通过融合低层特征的描述性内容和高级特征的语义信息,来提高尺度多变的特征鲁棒性[
7
]。但在使用FPN进行特征融合时,高级特征的表达能力将直接影响融合后的特征质量。为此,借鉴Inception-Text来优化标志图像特征。
3.1.1 标志特征优化模块Inception-Logo
Inception-Text模块,通过不同大小的空间可分离卷积来处理场景字符的多尺度问题,并在每个分支的最后添加了一个可变形卷积处理场景字符的多方向问题,最后融合不同大小卷积支路提取的特征来有效提高特征鲁棒性。考虑到字符和标志的表现形式不同,本文将Inception-Text中的空间可分离卷积改为标准卷积,以有效地对较为规则的标志提取特征。下文将改进后适配于标志的多尺度特征提取的模块称为Inception-Logo,其具体结构如
图4
所示。
Inception-Logo通过多尺寸卷积核提取输入特征并进行特征融合,同时考虑到传统卷积单元针对输入特征图在固定的位置进行采样,而不同的位置可能对应不同尺度或者不同形变的物体,这些卷积单元需自动调整尺度或者感受野,因此,在Inception-Logo中引入了可变形卷积,提高目标的特征鲁棒性。
Inception-Logo被添加在C5卷积层之后,输入特征的尺度为19×19,特征维度为1024维。首先对输入特征进行1×1卷积将特征维度降至256维,降低卷积核提取特征的计算复杂度,后续分为a、b、c、d这4个分支处理;对c、d分支分别使用3×3和5×5的卷积核提取特征,同时在b、c、d分支引入可变形卷积,提高对尺度和形状多变标志的特征提取能力;之后使用Concat操作将b、c、d分支的输入进行通道维度的叠加,并添加1×1卷积做通道之间的特征融合;最后将融合后的特征与a分支输出的特征直接进行相加,并使用ReLU激活函数进行非线性映射,完成特征的优化。
图4 Inception-Logo模块网络结构
Inception-Logo模块通过不同尺度的卷积核提取不同尺度的特征,完成特征优化。但Inception-Logo的多分支提取特征可能会带来额外的时间代价,因此将模块添加至网络的高层,避免增加过多计算量。
3.1.2 基于FPN的多尺度特征融合
RetinaNet中包含了特征融合结构FPN,FPN为top-down类型的金字塔特征融合模块,可以利用高层语义信息,增加了特征映射的分辨率,能够有效应对小目标的检测。RetinaNet中FPN的结构如
图5
(a)所示,其对C5层下采样生成了P6和P7层,并在{P3、P4、P5、P6、P7}层进行目标的预测,但是P6层和P7层并没有参与后续特征融合。
为充分利用语义信息提高特征表达能力,本文改进了基于FPN的特征融合方法,改进后的多尺度特征融合结构如
图5
(b)所示,P5层为经过Inception-Logo优化后的特征,在P5层特征下采样得到P6和P7层特征后,将P6层和P7层的特征分别与P5、P6层特征融合得到P5'和P6'。
图5 基于FPN的多尺度特征融合网络结构
融合前后的特征图尺度变化如
表1
所示,融合后共包含{P3、P4、P5'、P6'、P7}这5种不同尺度的特征图,为降低后续计算的复杂度,在融合初始就将特征通道降低为256维,网络最后的检测层在这5种尺度的特征图上做类别和位置的预测。通过整合多个特征图组成top-down类型的金字塔特征融合结构,可以有效融合低层特征的描述性内容和高级特征的语义信息,来提高特征对尺度变化的鲁棒性,进一步提升不同尺度标志特征的检测精度。
表1 多尺度特征融合后的特征图尺度变化
3.2 注意力引导机制
考虑到标志图像背景复杂,标志出现在柔性载体或者非平面实体上容易存在非刚性形变,因此,提高感受野中目标特征的权重,对提高标志检测与识别的性能具有重要的意义。借鉴门控特征融合机制[
9
]的原理,提出注意力门控模块,用于特征融合来提升目标特征的鲁棒性。此外,考虑特征融合若能进行通道间的内容交互,则可依赖通道选择来有效提高特征权重,而ECA[
27
]作为轻量化的通道注意力机制,已经被证明可以有效提升视觉目标识别的精度。因此,提出使用双重ECA在特征融合时进行特征优化,进一步提高标志检测与识别的性能。
3.2.1 注意力门控模块AGM
AGLDN在5种不同尺度的特征图上进行位置和类别的预测,提高特征质量对检测与识别的性能影响较大。因此,本文在特征融合时使用注意力门控模块替换原本的普通卷积,以获得更具分辨力的特征。
考虑到普通卷积特征通常无法对变形的目标的进行有效建模,而可变形卷积可以根据变化的对象外观自适应地提取特征。但是当目标对象处于外观变化较小的普通场景中时,标准卷积特征可能是更有效的,因此仅仅依靠可变形卷积可能存在不足。AGM通过注意力门控机制来平衡正常卷积特征和可变形卷积特征,当目标的变形被精确建模时,注意力门控机制可以引导可变性卷积特征和标准卷积特征之间的融合,从而提升特征鲁棒性。
AGM的结构如
图6
所示,首先对输入特征F进行3×3卷积,将特征维度统一为256,降低后续计算复杂度,同时有助于通道间的特征交互,得到特征图Fn;然后分别对Fn进行1×1卷积和可变形卷积提取特征,分别得到Fs和Fd;接着对Fs和Fd按照公式(5)进行加权求和,获得特征图Fo。
图6 注意力门控模块结构
其中,⊗⊗代表逐元素相乘。 α是可学习的权重参数,为使用Sigmoid非线性映射所得;本文使用α和(1–α)分别作为标准卷积特征和可变形卷积特征的权重。当标志出现变形时,α较小,从而增大可变形卷积特征的权重,而当标志并没有出现变形时,α增大,从而提高标准卷积特征的权重。依赖注意力引导机制,可以有效结合标准卷积和可变形卷积特点,获得鲁棒的更具表征力的标志特征。
3.2.2 基于双重ECA的特征优化
标志容易存在非刚性形变,导致大量的背景信息干扰标志特征的鲁棒性,注意力机制可以提高网络对目标的关注度,在目标变形时,引导提高感受野中目标区域的特征权重,优化特征的表达能力[
35
]。
在注意力机制中,ECA通过内核大小自适应的一维卷积实现局部跨通道的信息交互,可以保证较低计算复杂度的同时提高有效特征的权重,AGLDN也采用ECA模块来调整感受野中标志特征的权重。
双重ECA结构如
图7
所示。添加的第1处位于Inception-Logo后,Inception-Logo模块中涉及使用不同大小的卷积核提取特征并进行融合,在添加ECA模块后可以有效选择特征。第2处在P5'特征之后,其可以更有效地促进高层特征和底层特征的融合。
首先对输入特征F进行通道级全局平均池化(global average pooling,GAP)得到特征图F
G
;然后使用卷积核大小为k的一维卷积来捕获跨通道的交互信息,生成特征图F
c
,本文中k取值为5;接着使用Sigmoid激活函数处理交互信息生成权重β;最后根据式(6)加权初始输入特征图F,得到加权后的特征F
o
。
图7 基于双重ECA的特征优化示意图
通过使用双重ECA机制,可以合理设置感受野中标志特征的权重。
实验结果与分析
4.1 实验设置
本文共使用两个数据集进行实验,其一为真实数据集FlickrLogos-32,共包含32类标志,每类标志70张图像,共2240张图像;其二为合成数据集,共32类,对应FlickrLogos-32数据集的类别,每类100张图像,只用于训练。
在训练AGLDN及相关模型时,输入图像的分辨率选择600×600,输入图像的标注为BOX标注,使用Adam优化器进行训练,初始学习率为0.00001. 实验中采用的机器配置为NVIDIA GeForce RTX 2080 Ti GPU,测试时使用PASCAL VOC 2012数据集[
36
]的评价标准。本文通过4组实验来验证标志数据生成方法和AGLDN 的性能。
4.2 标志数据生成对检测性能的影响
为验证标志数据生成对检测性能的影响,使用AGLDN的基础网络RetinaNet进行效果测试,鉴于SCL (synthetic context logo)[
29
]和CSD (context-based synthetic data)[
30
]在测试时使用了Faster R-CNN网络,为了客观对比性能,本文也使用了Faster R-CNN网络,RetinaNet和Faster R-CNN使用相同的训练配置。实验参考SCL[
29
]和CSD[
30
]对数据合成测试的方法,使用较少真实数据进行训练,将FlickrLogos-32的每类10张图像作为训练集,其余每类60张图像作为测试集。
设计3类数据集检验标志数据生成对模型性能的影响:
(1) RealImg:仅使用FlickrLogos-32训练集进行训练,在FlickrLogos-32的测试集进行测试;
(2) SynImg:仅使用生成数据(每类100张)进行训练,在FlickrLogos-32的测试集进行测试;
(3) SynImg+RealImg:首先使用生成数据(每类100张)进行训练,然后使用FlickrLogos-32训练集进行微调,最后在FlickrLogos-32的测试集进行测试。
性能测试结果如
表2
所示。RetinaNet使用RealImg数据集mAP为54.3%,而使用SynImg+RealImg数据集mAP为64.8%,提高了10.5%。Faster R-CNN使用RealImg数据集mAP为53.3%,而使用SynImg+RealImg数据集mAP为63.2%,提高了9.9%。SCL和CSD方法均基于Faster R-CNN开展研究工作,两种方法使用SynImg+RealImg数据集相较于RealImg数据集mAP分别提高了4.4%和8.0%。
而使用Faster R-CNN时,所提数据合成方法提高的mAP值比SCL[
29
]所提方法高5.55%,比CSD[
30
]所提方法高1.95%。这充分说明了使用合成的标志数据可以有效提升样本的多样性,进而提高标志检测的精度。同时,从
表2
中可以看出,当使用SynImg策略进行训练时,CSD取得了最高的mAP,为32.6%,而RetinaNet的mAP仅为30.1%。
这主要是由于本文所使用合成方法并没有去过度拟合FlickrLogos-32的数据内容分布,包括标志模板的多样化选择、标志模板图像与背景合成的多样性等。通过所提合成方法能够生成多样化的数据,从而提高模型的泛化能力。从
表2
中可以看出,对比的几种方法均在使用SynImg+RealImg训练集时获得了更好的性能。
表2 使用不同训练数据集的mAP对比(%)
4.3 消融实验
该实验采用和实验一不同的训练和测试策略以便于对比增加各模块后的性能,具体地,在使用生成数据训练时使用每类100张图像,在使用FlickrLogos-32进行训练时使用每类40张真实图像,最终在FlickrLogos-32的每类30张真实图像上进行测试。消融实验结果如
表3
所示,本文对比了使用RetinaNet、使用生成数据预训练、多尺度特征融合和注意力引导机制等在标志检测与识别任务中的性能。
表3 不同模块对检测精度和检测速度的影响
在
表3
中,RetinaNet代表使用原始的RetinaNet,不添加任何改进措施;RetinaNet+S代表使用合成数据参与模型的训练;RetinaNet+SI代表使用合成数据参与训练,并仅在RetinaNet网络的基础上添加Inception-Logo;RetinaNet+SF代表使用合成数据参与训练,并仅对RetinaNet网络中的FPN特征融合方法进行相关改进;RetinaNet+SIF代表使用合成数据参与训练,并在RetinaNet中添加完整的多尺度特征融合;RetinaNet+SA代表使用合成数据参与训练,并仅在RetinaNet网络中添加注意力门控模块AGM;RetinaNet+SE代表使用合成数据参与训练,并仅在RetinaNet网络中双重ECA;RetinaNet+SAE代表使用合成数据参与训练,并在RetinaNet网络中添加完整的注意力引导机制;AGLDN代表注意力引导的标志检测与识别网络,其使用合成数据参与训练,并在RetinaNet的基础上引入多尺度特征融合和注意力引导机制。此外,基于完整结构AGLDN设计了不使用可变形卷积的AGLDN-D,以评估可变形卷积模块的作用。
图8
列举了使用RetinaNet、RetinaNet+S、RetinaNet+SIF、RetinaNet+SAE和AGLDN进行检测的示例,直观展示主要模块的检测性能。
图8 RetinaNet、RetinaNet+S、RetinaNet+SIF、RetinaNet+SAE和 AGLDN的结果示例
如
表3
所示,在仅使用基础网络RetinaNet时,mAP 为81.37%,速度为21.9 f/s,从
图8
可以看出,RetinaNet存在较多检测错误的情况,同时对于密集标志检测也不具有鲁棒性。联合使用合成数据训练的RetinaNet+S mAP为84.24%,相比不使用合成数据提高了2.87%,参照
图8
中的检测结果,RetinaNet+S的检测结果相较于RetinaNet有了较大改善,纠正了erdinger图像中的检测错误,同时也在rittersport图像中正确检测出了更多的标志区域,但是在尺度变换较多的pepsi图像上表现不佳,并没有识别出较多正确的pepsi标志。
此外,
表3
中也展示了添加多尺度特征融合的结果,其中多尺度特征融合包括Inception-Logo以及基于FPN的多尺度特征融合,在仅添加Inception-Logo的RetinaNet+SI mAP为85.76%,相较于未添加的RetinaNet+S,提高了1.52%。而使用改进后的基于FPN的多尺度特征融合模块的RetinaNet+SF mAP为84.86%,相较于使用原始FPN多尺度特征融合的RetinaNet+S,其mAP提高了0.62%。
在添加以上两个组件后组成完整的多尺度特征融合模块RetinaNet+SIF,mAP为85.88%,相较于RetinaNet+S,提高了1.64%。如
图8
所示,RetinaNet+SIF在一定范围内改善了RetinaNet+S的检测结果,例如在尺度较为多变的pepsi图像中正确识别出了更多的标志区域,可得出RetinaNet+SIF在尺度变换较多的标志检测与识别任务中具有一定的鲁棒性,结合
表3
的性能数据,证明了多尺度特征融合可以有效提升标志检测与识别的精度。
在
表3
展示的添加注意力引导机制结果中,注意力引导机制主要包括AGM以及双重ECA机制,在仅添加AGM的RetinaNet+SA的mAP为86.37%,在仅添加双重ECA的RetinaNet+SE的mAP为86.03%,在添加以上两个组件后组成完整的注意力引导机制,RetinaNet+SAE的mAP为86.52%,速度为14.5 f/s,相较于RetinaNet+S增长了2.28%的精度。
从表中可以看出,使用注意力引导机制相较于多尺度特征融合有更为明显的精度涨幅,这主要是由于RetinaNet中本来就含有特征融合机制,所提多尺度特征融合方法是在RetinaNet基础上的改进,同时这也证明了注意力引导机制在提高标志检测与识别精度的有效性。AGLDN-D的mAP为86.84%,相比使用可变形卷积的AGLDN下降了0.32,而速度为12.9 f/s相比于AGLDN增加了0.2 f/s。这一结果表明,引入可变形卷积可进一步提高模型的检测精度,且增加的计算开销较小。
结合
图8
的检测结果,RetinaNet+SAE相较于RetinaNet+SIF更为准确,例如,其纠正了RetinaNet+SIF在milka图像上的检测错误,这也符合
表3
中展示的精度数据,验证了RetinaNet+SAE通过注意力引导机制来优化特征质量的效果。但是在添加注意力引导机制后速度由21.9 f/s降低至14.5 f/s,降低了7.4 f/s,而在添加多尺度特征融合后检测速度从21.9 f/s降低至17.3 f/s,仅降低了4.6 f/s,即注意力引导机制相较于多尺度特征融合提升了较多精度,但是也带来了更多的计算开销。
最后,在RetinaNet中添加所有的模块后,构成了标志检测网络AGLDN,测试结果显示mAP为87.16%,相较于原始的RetinaNet提高了5.79%,相较于添加多尺度特征融合的RetinaNet+SIF提高了1.38%,相较于添加注意力引导机制的RetinaNet+SAE提高了0.68%,这充分证明了AGLDN在提高标志检测与识别精度方面的有效性。从
图8
中也可以看出,AGLDN获得了更高的召回率,例如在pepsi图像中正确识别出了更多的标志区域。
通过特征热力图可以直观地观察到注意力引导机制有助于标志特征的聚焦。这里利用Grad-CAM (梯度加权类激活映射)[
37
]可视化了注意力权重,
图9
展示了加入注意力引导机制的权重前后的热力图实例。从结果中可以看出在没有加入注意力引导机制时,模型在各个实例中都不能精准的聚焦标志区域。
例如,其在a、b、c、d和e等非标志区域有着较大权重,而对于标志区域f、g、h、i无法较为精准地定位标志中心及尺寸,特别是在具有较大形变的milka和pepsi实例中,未加入注意力的模型的权重出现了发散的情况,无法聚焦标志区域。而在加入所设计的注意力机制后,较好地解决了上面的问题。这一结果表明注意力门控模块AGM和双重ECA构建的注意力机制,能够提高标志特征的权重,帮助模型有效聚焦标志区域。
图9 加入注意力引导机制前后的权重热力图示例
由实验结果可以看出,AGLDN可以通过多尺度特征融合来有效应对标志尺度多变的情况,而注意力引导机制的引入一方面可以有效促进可变形卷积特征和普通卷积特征的融合,提高网络对形变目标的建模能力,另一方面可以优化目标特征,提高感受野中标志特征的权重,进而提高标志检测与识别的精度。但AGLDN在取得较高精度的同时也带来了计算代价,其检测速度仅为12.7 f/s,相较于原始的RetinaNet降低了9.2 f/s。
4.4 AGLDN和其他方法的性能对比
实验3在FlickrLogos-32数据集上对比了AGLDN和其他方法的性能,在训练AGLDN时,首先使用合成数据预训练模型,优化模型参数,然后使用FlickrLogos-32中每类40张图像进行训练,其余每类30张图像进行测试。
实验数据如
表4
所示,本文所提的AGLDN方法mAP达到87.16%,而DeepLogo[
38
]、BD-FRCN-M[
39
]、RealImg[
29
]、RDSL[
31
]、Logo-Yolo[
40
]、MFDNet[
5
]均为研究者针对标志设计的检测与识别方法,其中MFDNet具有最好的性能优势,mAP达到86.20%,相比之下,AGLDN使得mAP提升了0.96%。
此外,实验也对比了两阶段检测器Faster R-CNN[
13
]和单阶段检测器YOLOX[
41
]的结果,在训练时使用和AGLDN一样的配置。其中Faster R-CNN mAP为84.86%,相比之下,AGLDN提高了2.30%的精度。而YOLOX的mAP为86.65%,其取得了除AGLDN外最高的检测精度。而Logo-Yolo因其采用的网络是早期的YOLOv3,性能较低。
表4 AGLDN和其他方法的mAP结果(%)
该实验证明,AGLDN能够有效解决标志检测识别的难题。首先所提的标志数据生成方法能有效提高模型的泛化能力,提高标志检测的鲁棒性;通过构建多尺度特征融合网络,有效融合多尺度特征,能有效应对标志尺度变化问题;在网络中添加可变性卷积和注意力引导机制能够提高网络对形变目标的建模能力,降低目标形变对检测性能的影响,同时优化特征表达能力,进而提高标志检测精度。
4.5 AGLDN和其他方法的检测结果对比
为了更直观展示所提方法的检测性能,实验四对比了使用Faster R-CNN、YOLOX和 AGLDN方法的检测结果,如
图10
所示。Faster R-CNN和YOLOX均存在错误识别的情况,例如在类别为milka的标志检测中,两者都将非标志物体识别为标志,其中,Faster R-CNN将非标志物体识别为pepsi,而YOLOX则将非标志物体识别为apple,YOLOX还将变形的milka检测成了adidas。
但是YOLOX在pepsi图像的检测中表现出相较Faster R-CNN更明显的优势,其正确检测出了更多的标志区域。AGLDN相较于Faster R-CNN和YOLOX展现出了更佳的检测结果,其不仅纠正了两者在milka中的检测错误,还在rittersport中正确检测了更多的标志区域。检测示例符合
表4
中的mAP数据,展现了AGLDN在标志检测与识别任务中的优势,其可以有效提高标志检测与识别的精度。
图10 使用Faster R-CNN、YOLOX和AGLDN的检测结果示例
4.6 AGLDN实测结果
此外,为了验证本文方法的鲁棒性,还随机从网络上选取了真实数据,测试了AGLDN在这些数据上的检测效果,部分测试结果如
图11
所示。结果表明对于测试集之外的数据,AGLDN也能较为精准地检测与识别图像中出现的相应标志,具有较好的鲁棒性。
图11 使用AGLDN在真实数据上的检测结果示例
结语
为了有效应对标志检测面临尺度变化、非刚性形变的问题,本文提出了一种注意力引导的标志检测与识别网络。首先使用标志数据集生成方法获取标志数据集,满足深度学习训练需求,提高模型的泛化能力;然后基于RetinaNet构建标志检测与识别网络,通过Inception-Logo和基于FPN的多尺度特征融合来提取多尺度特征并形成高级语义特征映射;最后利用注意力门控模块AGM和双重ECA构建的注意力机制引导机制来关注标志区域,调整标志特征的权重。通过统一模型联合优化,提高标志检测与识别的鲁棒性。
为了进一步提高标志检测与识别的鲁棒性和灵活性,可在以下几方面开展工作:
(1) 在数据合成工作中,可在合成过程中充分考虑标志和背景图像场景匹配问题,增加数据真实性和多样性;
(2) 本文着重研究了静态标志检测与识别,动态的标志检测与识别也是亟需解决的问题,可以引入时序关系辅助进行动态标志的检测,即进一步提高精度;
(3) 部分标志包括文字信息,可添加文字识别分支进一步提升包含字符的标志检测与识别精度。
本文仅做学术分享,如有侵权,请联系删文。
http://mp.weixin.qq.com/s?__biz=MzAxNTc4MTc1Ng==&mid=2649472089&idx=4&sn=ae127ebcc91171f3f93e2cde2050c4f1
新机器视觉
一个值得关注的AI视觉技术公众号,主要涉及人工智能领域机器视觉、计算机视觉、机器学习、深度学习等前沿知识干货和资源!致力于为您提供切实可行的AI学习线路。
最新文章
万字长文,搞懂 AI 大模型的技术原理!
什么是传感器 MTF?
从科幻到现实: 简单更换镜头将普通相机变身高光谱设备
什么是机器学习?通过机器学习方法能解决哪些问题?
今天面试了一个字节女生,当场想给她 offer!
机器视觉常用的三种目标识别方法解析
一种深度学习方法---迁移学习了解下
注意力引导的标志检测与识别
2024年图像匹配挑战赛:银牌解决方案!
使用 YOLO 加速实时应用程序中的对象检测 !
常见的图像处理技术
一学术达人 TikZ 学术绘图库 - 机器学习方法图好全好看,速来!
显微镜分辨率与相机分辨率
【深度学习】PyTorch训练一个CNN分类器
机器学习 | LangChain框架快速入门
基于迁移学习的车辆目标识别
图像配准的前世今生:从人工设计特征到深度学习
不谈高级原理,只用简单的语言来聊聊机器学习
10分钟了解AI开发的基本过程
OCR文字识别原理及应用
Halcon和Opencv 的区别
高光谱图像数据?——What & How
计算机视觉、计算机图形学和数字图像处理三者的区别与联系。
一种新型光学快速自动聚焦系统
机器学习 | 强化学习如何让机器自主决策并优化行为
YOLO 11 安装与使用指南
一文了解 | 物方远心、像方远心及双远心镜头的特点、区别及其应用场景
一种轻量级深度学习模型,在IoT设备上的实时行人检测 !
Nature打破质疑!视觉成像发展的“新风口”!全新技术将颠覆传统研究!
计算机视觉中的传统特征提取方法总结
入门 | 研究自动驾驶技术的算法需要哪些知识?
定位算法—MCL蒙特卡洛滤波
第一次接触FPGA至今,总结的宝贵经验~
速刷人工智能算法 | 基本遗传算法
基于MIMU与Wi-Fi的普适室内定位方法综述
多传感器时空标定
一文带你了解机器人是如何通过视觉实现目标跟踪的!
一文详解基于先验地图的视觉定位
图像分割:超像素(Superpixel)分割的大致原理
工业相机中的工作模式设定的使用方法
深入浅出Batch Size,对模型训练的影响分析
一文看完多模态:从视觉表征到多模态大模型
DINOv2!计算机视觉领域的基础模型终于出现
YOLO 系列目标检测大合集
行人搜索算法综述
用python写一个图像文字识别OCR工具
视觉基础之相机标定
机器学习和深度学习的区别到底是什么?
实操教程|怎样制作目标检测的训练样本图像?
3D 激光雷达 SLAM 算法综述
分类
时事
民生
政务
教育
文化
科技
财富
体娱
健康
情感
旅行
百科
职场
楼市
企业
乐活
学术
汽车
时尚
创业
美食
幽默
美体
文摘
原创标签
时事
社会
财经
军事
教育
体育
科技
汽车
科学
房产
搞笑
综艺
明星
音乐
动漫
游戏
时尚
健康
旅游
美食
生活
摄影
宠物
职场
育儿
情感
小说
曲艺
文化
历史
三农
文学
娱乐
电影
视频
图片
新闻
宗教
电视剧
纪录片
广告创意
壁纸头像
心灵鸡汤
星座命理
教育培训
艺术文化
金融财经
健康医疗
美妆时尚
餐饮美食
母婴育儿
社会新闻
工业农业
时事政治
星座占卜
幽默笑话
独立短篇
连载作品
文化历史
科技互联网
发布位置
广东
北京
山东
江苏
河南
浙江
山西
福建
河北
上海
四川
陕西
湖南
安徽
湖北
内蒙古
江西
云南
广西
甘肃
辽宁
黑龙江
贵州
新疆
重庆
吉林
天津
海南
青海
宁夏
西藏
香港
澳门
台湾
美国
加拿大
澳大利亚
日本
新加坡
英国
西班牙
新西兰
韩国
泰国
法国
德国
意大利
缅甸
菲律宾
马来西亚
越南
荷兰
柬埔寨
俄罗斯
巴西
智利
卢森堡
芬兰
瑞典
比利时
瑞士
土耳其
斐济
挪威
朝鲜
尼日利亚
阿根廷
匈牙利
爱尔兰
印度
老挝
葡萄牙
乌克兰
印度尼西亚
哈萨克斯坦
塔吉克斯坦
希腊
南非
蒙古
奥地利
肯尼亚
加纳
丹麦
津巴布韦
埃及
坦桑尼亚
捷克
阿联酋
安哥拉