点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
AI/CV重磅干货,第一时间送达
添加微信号:CVer2233,小助手会拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!
添加微信号:CVer2233,小助手会拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!
论文: A Simple Image Segmentation Framework via In-Context Examples
论文地址:https://arxiv.org/abs/2410.04842 论文代码:https://github.com/aim-uofa/SINE
创新点
探索了通用的分割模型,发现现有方法在上下文分割中面临任务模糊性的问题,因为并非所有的上下文示例都能准确传达任务信息。 提出了一个利用上下文示例的简单图像分割框架 SINE
(Segmentation framework via IN-context Examples
),利用了一个Transformer
编码-解码结构,其中编码器提供高质量的图像表示,解码器则被设计为生成多个任务特定的输出掩码,以有效消除任务模糊性。SINE
引入了一个上下文交互模块,以补充上下文信息,并在目标图像与上下文示例之间产生关联,以及一个匹配Transformer
,使用固定匹配和匈牙利算法消除不同任务之间的差异。完善了当前的上下文图像分割评估系统,实验结果表明, SINE
可以处理广泛的分割任务,包括少量样本的语义分割、少量样本的实例分割和视频目标分割。
内容概述
图像分割涉及在像素级别上定位和组织概念,比如语义分割、实例分割、全景分割、前景分割和交互分割。然而,现有的大多数分割方法都是针对特定任务量身定做的,无法应用于其他任务。
最近一些工作探索了通用分割模型,通过上下文学习解决多样且无限的分割任务。上下文分割模型需要理解上下文示例传达的任务和内容信息,并在目标图像上分割相关概念,但并不是所有的上下文示例都能准确传达任务信息。例如当提供一个特定个体的照片,是仅限于个体本身、涵盖所有人的实例分割,还是集中于语义分割?模糊的上下文示例可能使传统的上下文分割模型难以清晰地定义不同任务之间的边界,从而导致不期望的输出。
为了解决这个问题,论文提出了基于上下文示例的简单图像分割框架SINE
(Segmentation framework via IN-context Examples
)。受到SAM
模型的启发,SINE
预测针对不同复杂度任务定制的多个输出掩码。这些任务包括相同物体、实例到整体语义概念。SINE
统一了现有的各种粒度的分割任务,旨在实现更广泛的任务泛化。
与SegGPT
相比,SINE
能够在可训练参数更少的情况下有效地解决上下文分割中的任务模糊性问题,而SegGPT
仅输出语义分割结果。此外,论文进一步将少样本实例分割引入当前的评估系统,以便全面评估这些模型。
SINE
SINE
是一个基于查询的分割模型,遵循DETR
和Mask2Former
的设计。使用相同对象(ID
)查询 来识别和定位目标图像中与参考图像中具有相同对应关系的对象,使用可学习的实例查询 来识别和定位目标图像中与参考图像具有相同语义标签的对象。
SINE
基于经典的Transformer
结构,引入了一些针对上下文分割任务的有效设计,包括一个冻结的预训练图像编码器、一个上下文交互模块和一个轻量级匹配Transformer
(M-Former
) 解码器。
上下文交互
上下文交互的目的是补充上下文信息,并在参考图像特征和目标图像特征之间产生关联。
掩码池化
为每个掩码分配不同的ID
标签,将参考掩码 转换为ID
掩码 ,通过将具有相同类别标签的掩码合并来得到语义掩码 ,其中 和 分别是ID
掩码和语义掩码的数量。
然后,使用这些掩码对参考特征 进行池化,获得提ID
标记 和语义标记 。
上下文融合模块
上下文融合模块该模块是一个Transformer
块,包括自注意力机制、交叉注意力机制和前馈网络,实现参考特征和目标特征之间的上下文关联:
这些标记 ( 和 ) 和目标特征 ( ) 通过这个共享模块进行融合,在交叉注意力中它们彼此作为键和值,从而可以获得增强后的目标特征 、ID
查询 和语义原型 。
匹配Transformer
为了有效地进行上下文分割并消除任务模糊性,M-Former
实现了一个双路径的Transformer
解码器,共享自注意力层。一路径用于与查询( 和 )交互,提取与目标图像中的上下文示例相关的特征。第二路径用于增强语义原型 以实现更准确的匹配。这两条路径共享自注意力层,以便将语义从 分配给 。
M-Former
共有 N 个块,整体的过程如下:
对于实例分割,使用更新后的语义原型 作为分类器,并让 表示 个实例预测的集合。使用匈牙利损失来学习SINE
,通过计算预测 和GT
之间的分配成本以解决匹配问题,即 ,其中 是GT
对象的类别和掩码, 可能为 。 是第 个实例查询对应类别 的概率, 表示其预测的掩码。 是一种二元掩码损失和Dice
损失:
其中 表示二分匹配的结果索引。
为了赋予SINE
预测同一对象的能力,使用图像中同一实例的不同裁剪视图作为参考-目标图像对。设 表示 个ID
预测的集合。
由于参考ID
和目标ID
之间的关系是固定的且可以准确确定,可以在预测和GT
之间执行固定匹配,损失可以写为:
其中 是GT
的类别和掩码, , 表示一个对象同时出现在参考图像和目标图像中。总损失为 。
一旦训练完成,SINE
的全部能力在推理过程中得以释放,能够解决上下文示例中的模糊性并为不同的分割任务输出预测。
主要实验
何恺明在MIT授课的课件PPT下载
在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!
ECCV 2024 论文和代码下载
在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集
CVPR 2024 论文和代码下载
在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集
Mamba、多模态和扩散模型交流群成立
扫描下方二维码,或者添加微信号:CVer2233,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer2233,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!
▲扫码加入星球学习
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看