点击下方“PaperEveryday”,每天获得顶刊论文解读
点击加入论文投稿、写作、阅读分享交流群
One Fits Many: Class Confusion Loss for Versatile Domain Adaptation题目:万用一法:类别混淆损失在多领域自适应中的应用
作者:Ying Jin; Zhangjie Cao; Ximei Wang; Jianmin Wang; Mingsheng Long
源码:https://github.com/thuml/Transfer-Learning-Library
摘要
在开放世界中,不同的标签集和领域配置产生了多种领域适应(DA)设置,包括闭集、部分集、开集和通用DA,以及多源和多目标DA。值得注意的是,现有的DA方法通常只针对特定设置设计,并且可能在未针对的设置中表现不佳。本文将DA的常见范式转变为多领域适应(VDA),其中一种方法可以在没有任何修改的情况下处理几种不同的DA设置。为了实现这一目标,我们首先深入研究了一种通用的归纳偏差:类混淆,然后发现减少这种类间混淆可以带来显著的迁移收益。基于这一见解,我们提出了一种通用的类混淆损失(CC-Loss),以学习多种设置。我们仅基于分类器预测估计类混淆,并最小化类混淆以实现准确的目标预测。此外,我们通过在不同数据增强下强制混淆矩阵的一致性来改进损失,以鼓励其对分布扰动的不变性。在2D视觉和3D视觉基准测试中的实验表明,CC-Loss在不同的主流DA设置中表现出竞争力。
关键字
迁移学习
领域适应
多领域适应
类混淆损失
I. 引言
在深度神经网络(DNNs)在真实应用中的广泛使用受到标签数据稀缺的阻碍。这一挑战催生了领域适应(DA)[49]、[59],这是一种重要的技术,旨在将知识从一个有标签的源域迁移到在分布偏移存在的情况下的无标签目标域。一系列基于DNN的方法[21]、[42]、[43]、[45]、[72]、[73]、[74]、[89]已被提出用于无监督领域适应(UDA),这是一种闭集设置,具有一个源域和一个目标域,共享相同的标签集。最近,提出了几种具有更实用标签集配置的设置,例如部分集DA(PDA),其中源标签集包含目标标签集[7]、[86],开集DA(OSDA)目标标签集包含源标签集[6]、[63],以及通用DA(UniDA)取消了源和目标域上所有标签集的约束[20]、[84]。同时,还考虑了不同的领域配置,例如具有多个源域的多源DA(MSDA)[80]、[90],以及具有多个目标域的多目标DA(MTDA)[54]。图1强调了这些领域适应设置之间的差异,每种设置都通过各种方法[7]、[40]、[54]、[62]、[80]、[86]进行了专门研究。
尽管在每个领域适应设置中不同方法都取得了成功,但在实际应用中,准确确定设置是不切实际的,因为在数据获取过程中很难确认标签集和领域配置。例如,没有先验知识,无法在无标签的目标域中获得标签集配置,并且对于在线应用,领域配置可能随时改变。因此,我们可能会陷入选择适合的DA设置的适当方法的困境。面对这种困境,一个自然的问题出现了:一个通用的方法能否解决所有领域适应设置?这样的方法自然消除了上述困难,并通常解决了实践中的领域适应。在本文中,我们定义了多领域适应(VDA)为一系列通用方法,能够无需任何修改就能应对各种设置。
实现VDA的最大挑战是该方法需要独立于任何特定的标签集或领域配置。因此,它应该基于所有设置共享的共同假设进行设计。不幸的是,现有的DA方法通常只针对特定设置设计,依赖于相应的标签集和领域配置。因此,它们在未针对的设置中容易表现不佳。例如,广泛使用的领域对齐归纳偏差[21]要求源和目标域共享相同的标签集。此外,当应用于具有不同标签集的设置时,应该引入一些特别设计的加权机制。PADA[8],一种经典的PDA方法,在挑选异常类别方面表现出色,但在OSDA中未能检测到开集样本,而DADA[54],一种为MTDA量身定制的杰出方法,考虑了对任意目标域的泛化,但在只有一个目标域但有多个源域的MSDA中优势较弱。因此,现有的DA方法不足以应对具有复杂变化的实际设置。
本文采用新的归纳偏差——类混淆,以实现多领域适应。类混淆指的是分类器在目标样本的正确和模糊类别之间的预测混淆的倾向。我们提出了一种新的损失——类混淆损失(CC-Loss),它估计并最小化了目标域中分类器的类混淆,并在增强下强制混淆矩阵的一致性。CC-Loss仅依赖于目标预测,无需额外要求,通常适用于上述所有DA设置。我们在2D和3D视觉基准测试中进行了广泛的实验,并证明了我们的方法在不同的DA设置中优于以前的方法,证明了我们方法的多功能性和有效性。
这篇关于CC-Loss的期刊论文从多个角度扩展了我们的会议论文[30],称为MCC:设置方面,我们的会议版本只能解决UDA、PDA、MSDA和MTDA,但未能扩展到OSDA和UniDA设置[30],因为它缺乏处理目标域中的开放类别的能力。在期刊版本中,我们通过在分类器中引入一个新的条目来对开放类别进行分类,并将这个额外的类别纳入类混淆的计算中,将DA设置扩展到OSDA和UniDA。期刊版本涵盖了主流的DA设置,这展示了我们方法的广泛应用,并符合我们对VDA的意图。方法方面,期刊版本通过在不同增强下进行一致性正则化来改进MCC方法,以稳定混淆矩阵的估计。具体来说,我们最小化了混淆矩阵之间的L2距离。我们将它们集成到类混淆损失(CC-Loss)中。实验结果表明,一致性正则化可以更准确地估计混淆矩阵。与先前工作的进一步比较表明,提出的类混淆一致性在领域适应任务中优于传统的一致性正则化。实验方面,我们的会议版本仅在2D计算机视觉基准测试中对MCC进行了实证评估,并在UDA、PDA、MSDA、MTDA设置中进行了评估。在期刊版本中,我们首次在包括OSDA和UniDA在内的主流DA设置中评估了我们的方法。我们还将实验扩展到了3D识别。结果表明,CC-Loss在几个基准测试和所有这些主流DA设置中都取得了竞争性能。
III. 多领域适应
IV. CC-LOSS:类混淆损失
A. 类混淆块
B. 类混淆损失
V. 多领域学习算法
A. 不同的标签集配置
B. 不同的领域配置
VI. 2D视觉实验
A. 无监督领域适应(UDA)
B. 部分领域适应(PDA)
C. 开集领域适应(OSDA)
D. 通用领域适应(UniDA)
E. 多源领域适应(MSDA)
F. 多目标领域适应(MTDA)
VII. 3D视觉实验
数据集
实现细节
结果
VIII. CC-Loss分析
消融研究
数据增强
类混淆一致性
无源设置
理论见解
参数敏感性
收敛速度
混淆矩阵可视化
CAM可视化
IX. 结论和未来方向
声明
#论 文 推 广#
让你的论文工作被更多人看到
你是否有这样的苦恼:自己辛苦的论文工作,几乎没有任何的引用。为什么会这样?主要是自己的工作没有被更多的人了解。
计算机书童为各位推广自己的论文搭建一个平台,让更多的人了解自己的工作,同时促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 计算机书童 鼓励高校实验室或个人,在我们的平台上分享自己论文的介绍、解读等。
稿件基本要求:
• 文章确系个人论文的解读,未曾在公众号平台标记原创发表,
• 稿件建议以 markdown 格式撰写,文中配图要求图片清晰,无版权问题
投稿通道:
• 添加小编微信协商投稿事宜,备注:姓名-投稿
△长按添加 PaperEveryday 小编