【对比学习与分割相结合】是深度学习领域的一项前沿技术,目标是通过优化特征表示来增强语义分割的效果。这种方法借助对比学习框架来挖掘未标记数据的价值,通过培养更具辨别力的特征表示,提升了模型在有限标注数据上的泛化性能。结合半监督学习策略,它减轻了对大规模精确标注数据的需求,从而降低了获取标注数据的高昂成本和时间消耗。这种综合方法不仅提升了分割的准确性,还加速了模型的训练过程,对实际应用领域如图像分析具有显著意义。近年来,众多研究者在对比学习与图像分割的结合方面进行了深入研究,产生了一系列重要的学术成果。
为了帮助大家全面掌握【对比学习+分割】的方法并寻找创新点,本文总结了最近两年【对比学习+分割】相关的16篇前沿研究成果,这些论文、来源、论文的代码都整理好了,希望能给各位的学术研究提供新的思路。
需要的同学扫码添加我
回复“对比学习16”即可全部领取
一、Pseudo-label Guided Contrastive Learning for Semi-supervised Medical Image Segmentation
这篇文章提出了一种新的半监督医学图像分割框架,名为Pseudo-label Guided Contrastive Learning(PLGCL),该框架结合了对比学习(Contrastive Learning, CL)和半监督学习(Semi-supervised Learning, SemiSL)。以下是文章中提到的方法和创新点:
1.方法
1.1半监督对比学习框架
该框架不使用任何显式的预训练任务,而是利用半监督学习生成的伪标签来指导对比学习,从而提供额外的指导信息。
1.2伪标签引导的对比损失(PLGCL)
这是一种新的损失函数,可以在没有显式预训练任务的情况下挖掘类别区分特征,展现出在多个领域的泛化能力。
1.3基于补丁的对比学习
在该框架中,正样本和负样本的采样是基于伪标签获得的熵引导的度量,这有助于防止类别碰撞,即在对比学习中强制对比语义相似的实例。
1.4学生-教师网络
使用学生-教师网络结构来利用图像中的像素级信息,并定义了一致性成本,以增强模型的泛化能力。
2.创新点
2.1结合半监督学习和对比学习
文章提出了一种新颖的端到端分割范式,半监督学习生成的伪标签辅助对比学习,而对比学习中学习到的类别区分特征又提升了半监督学习的多类分割性能。
2.2伪标签引导的对比损失(PLGCL)
这是一种新的损失函数,它通过考虑类别条件分布的联合,来优化正样本和负样本之间的信息互斥性。
2.3基于熵的补丁采样
提出了一种新的基于平均补丁熵的补丁间语义差异映射方法,用于在提出的对比学习框架中引导正样本和负样本的采样。
2.4跨模态泛化能力
在三个不同领域的公开数据集上进行的实验分析显示,所提出的方法优于现有的最先进方法,证明了其泛化和鲁棒性。
总的来说,文章的主要创新点在于提出了一个结合了半监督学习和对比学习的框架,通过伪标签引导的对比损失和基于熵的补丁采样策略,提高了医学图像分割的准确性和鲁棒性。
论文链接:https://openaccess.thecvf.com/content/CVPR2023/papers/Basak_Pseudo-Label_Guided_Contrastive_Learning_for_Semi-Supervised_Medical_Image_Segmentation_CVPR_2023_paper.pdf
二、IDEAL: IMPROVED DENSE LOCAL CONTRASTIVE LEARNING FOR SEMI-SUPERVISED MEDICAL IMAGE SEGMENTATION
这篇文章提出了一种名为IDEAL(IMPROVED DENSE LOCAL CONTRASTIVE LEARNING)的半监督学习方法,用于医学图像分割任务。以下是文章中提到的方法和创新点:
1.方法
1.1自监督预训练(Self-Supervised Pre-training)
使用对比学习框架在不需要标签的情况下预训练深度编码器网络,以学习局部特征。
1.2半监督微调(Semi-Supervised Fine-tuning)
将预训练好的编码器网络用于下游任务,通过一致性正则化进行微调。
1.3局部对比学习(Local Contrastive Learning)
与传统的全局对比学习不同,IDEAL采用局部对比学习,通过1x1卷积操作生成密集的特征表示,以保留局部信息。
1.4双向一致性正则化(Bidirectional Consistency Regularization)
在微调阶段,使用两个不同架构的解码器,并通过交叉一致性损失函数进行训练,以提高分割性能。
2.创新点
2.1密集投影头(Dense Projection Head)
提出了一种新的卷积投影头,用于获取密集的像素级特征,这有助于改善局部表示。
2.2重新定义正负样本
在对比学习中重新定义了“正”和“负”样本的概念,并扩展了InfoNCE损失函数以适应密集表示。
2.3交叉一致性正则化
采用了一种独特的交叉一致性正则化机制,通过两个不同架构的解码器之间的竞争学习,提高了分割性能。
2.4半监督学习方法
IDEAL方法在心脏MRI分割任务中表现出优于现有最先进方法的性能,即使在标签数据极少的情况下也能有效地工作。
总的来说,文章的主要创新点在于提出了一种结合了自监督学习和半监督学习的框架,通过密集局部特征学习和双向一致性正则化,提高了医学图像分割的准确性和鲁棒性。
论文链接:https://arxiv.org/pdf/2210.15075
需要的同学扫码添加我
回复“对比学习16”即可全部领取
三、Hunting Sparsity: Density-Guided Contrastive Learning for Semi-Supervised Semantic Segmentation
这篇文章提出了一种名为Density-Guided Contrastive Learning (DGCL)的半监督语义分割方法。以下是文章中提到的方法和创新点:
1.方法
1.1密度引导的对比学习(DGCL)
通过利用特征空间的几何结构直接提取监督信息,特别是从特征密度的角度出发,定位特征簇中的稀疏区域。
1.2多尺度密度估计模块
通过多个最近邻图来获取密度信息,以实现对特征密度的稳健建模。
1.3统一训练框架
结合标签引导的自训练和密度引导的几何正则化,形成对未标记数据的互补监督。
2.创新点
2.1特征密度估计
文章提出将特征密度定义为邻域紧凑性,并设计了多尺度密度估计模块来获得密度信息,这有助于识别特征空间中的稀疏区域。
2.2密度引导的样本选择
通过密度信息选择稀疏区域的特征作为锚点(anchors),并使用高密度的正样本(positive keys)来近似簇中心,从而推动锚点向高密度区域移动,增强类内紧凑性。
2.3动态记忆库
提出了动态记忆库来收集跨整个数据集的类别特征,以便更全面地建模类别特征,并用于密度估计和正样本选择。
2.4统一学习框架
将标签引导的自训练和密度引导的特征学习相结合,使得两种方案相互补充,提高了半监督语义分割的性能。
总的来说,文章的主要创新点在于提出了一种从特征空间几何结构中提取有效监督信息的策略,并通过密度引导的对比学习来增强模型的训练效果,特别是在处理稀疏区域的特征时。这种方法在多个数据集和半监督设置下都显示出了优越的性能。
论文链接:https://openaccess.thecvf.com/content/CVPR2023/papers/Wang_Hunting_Sparsity_Density-Guided_Contrastive_Learning_for_Semi-Supervised_Semantic_Segmentation_CVPR_2023_paper.pdf
需要的同学扫码添加我
回复“对比学习16”即可全部领取