点击下方“ReadingPapers”卡片,每天获取顶刊论文解读
论文信息
题目:VSmTrans: A hybrid paradigm integrating self-attention and convolution for 3D medical image segmentation
VSmTrans:一种融合自注意力和卷积的混合范式用于3D医学图像分割
作者:Tiange Liu, Qingze Bai, Drew A. Torigian, Yubing Tong, Jayaram K. Udupa
源码链接:https://github.com/qingze-bai/VSmTrans
论文创新点
提出一种新颖的混合Transformer骨干网络:作者提出了一种名为Variable-Shape Mixed Transformer (VSmTrans)的混合范式,用于3D医学图像分割。这种混合范式能够紧密整合自注意力和卷积,以利用这两种范式的优势。
设计了有效的自注意力机制VSW-MSA:作者设计了一种名为Variable-Shape Window Multi-head Self-attention (VSW-MSA)的新型自注意力机制。这种机制可以快速扩展接受域,并在全局和局部信息收集之间实现良好的平衡,而无需额外的计算成本。
混合Transformer模块的创新设计:在新的混合模块中,CNN不仅仅是引入归纳偏置的独立路径,而是将并行卷积增强模块嵌入到Transformer模块中,可以享受大接受域和强大归纳偏置的好处。
在多个公共医学图像数据集上的广泛实验:作者在AMOS CT数据集和BraTS2021 MRI数据集上进行了广泛的实验,验证了所提出方法的有效性。实验结果表明,该方法在性能上具有竞争力,甚至超过了其他一些最先进的方法。
消融实验验证了混合机制的有效性:通过一系列消融实验,作者验证了所提出的混合机制能够充分利用自注意力和卷积模块,有效平衡大接受域与局部归纳偏见,从而实现准确的分割结果,尤其是在物体边界上。