来源:专知 本文约1000字,建议阅读5分钟
在本论文中,我们专注于计算机视觉中的多任务学习。
在本论文中,我们专注于计算机视觉中的多任务学习。多任务学习的目标是同时训练多个相关但不同的任务,并在每个任务上取得良好表现,实现任务间的双向知识传递。我们旨在解决多任务学习中与偏差相关的现有挑战,例如数据不足、类别偏移和任务不平衡等问题。以往的多任务学习方法通常需要来自所有任务的广泛且完整的训练数据,容易导致过拟合和模型性能不佳等问题。论文围绕解决四个关键研究问题展开:
通过变分贝叶斯框架(Variational Bayesian Framework)VMTL,利用任务相关性以缓解数据不足。
通过在情节训练设置中开发异质神经过程(Heterogeneous Neural Processes, HNPs),利用历史信息来解决数据不足问题。
通过关联图学习(Association Graph Learning, AGL)应对类别偏移,该方法促进不同任务和类别之间的知识传递,以维持模型的判别能力。
使用GO4Align来有效缓解任务不平衡,这是一种新颖的优化方法,采用群体风险最小化策略来对齐任务优化。
论文的每一章节都介绍了针对各类MTL偏差的创新方法,包括详细的方法论和实验结果,从而提出了一种全面提升MTL系统的方案。
第一分支是单向知识迁移,包括迁移学习、领域泛化和元学习。这三种研究方向从源任务到目标任务进行单向知识迁移。在传统迁移学习设置中,目标任务中的一些标注数据用于模型微调 [146, 248]。领域泛化 [248]利用单一或多个相关但不同的源领域数据训练模型,并将学习到的模型泛化到任何分布不同的领域。元学习则从已知的训练任务中学习元知识,并快速将其适应到未来的新任务。 第二分支是双向知识迁移,即多任务学习。与单向方法不同,多任务学习在任务之间进行双向知识迁移,因为它将所有任务视为平等。为便于清晰直接的对比,我们在图1中展示了这些研究领域。本文的研究范围集中在多任务学习,其中一个领域或模态通常对应于一个单一任务。
关于我们
数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。
新浪微博:@数据派THU
微信视频号:数据派THU
今日头条:数据派THU