ECAI 2024 | 可适应点云模型: 通过适应二维视觉模型进行三维点云分析

文摘   科技   2024-08-20 14:06   广东  

导读

本文是VCC黎达同学对论文 Adapt PointFormer: 3D Point Cloud Analysis via Adapting 2D Visual Transformers 的解读,该工作来自深圳大学可视计算研究中心VCC黄惠教授课题组,已被欧洲人工智能顶级会议ECAI 2024录用,同时获得中国发明专利授权和软件著作权登记。

项目主页: 
https://vcc.tech/research/2024/PointFormer

该工作提出了一种微调2D预训练模型策略,旨在优化2D预训练模型以适应3D点云分析任务。该方法通过少量参数微调,可大幅度提升模型在处理3D点云数据时的性能,所提出的微调方法能够有效地从点云数据中提取高质量的表征,这些表征随后可被用于执行多种下游点云处理任务。应用范围包括但不限于3D物体分类、部件分割、室内场景的语义分割以及室内实例分割等。该方法的设计有效利用了2D模型的预训练优势,克服了传统方法在3D点云分析中所需的大量参数调整,为3D点云处理领域提供了效率与性能的双重提升。



I


 引言 
本文提出了一种新的方法——Adapt PointFormer (APF),旨在通过适应二维视觉模型以实现高效的三维点云分析。近年来,自注意力模型,例如BERT [1]和ViT [2],在自然语言处理和图像识别等领域取得了突破性的进展。Transformer [3]架构也被成功引入到点云分析的多个研究中,并取展现出显著的性能提升。尽管如此,针对三维下游任务的大规模预训练模型仍然相对稀缺,这一现象的部分原因在于三维数据的标注难度远高于二维数据。APF方法的提出,旨在缓解这一瓶颈问题,通过利用二维模型的预训练成果,为三维点云分析提供一种新视角。

在二维图像领域,众多预训练模型,如ViT和CLIP [4]已经通过使用1400万张图像和4亿组图像-文本对进行训练,从而积累了丰富的先验知识。由此引发出一个问题:是否可以直接借鉴这些二维先验知识来提升三维点云的分析性能?如果可行,我们便能够直接利用易于获取的二维数据和预训练模型,来增强三维点云分析方法的能力。我们首先开展了一项实验,以探究将图像先验知识直接应用于点云数据分析的可行性。为此,我们随机初始化了一个轻量级的PointNet (Random PointNet ,简称RPN),用以实现点云数据与图像token的维度对齐,然后获得随机点特征。在训练期间,维度对齐网络参数固定不变。随后,我们对二维预训练模型进行了微调。实验结果表明,与从头开始在三维数据上训练的模型相比,微调的二维模型获得了更高的准确性,结果如图1所示。由此可见,二维预训练模型在分析三维点云任务上表现出有效性。


图1 从头训练模型与微调方法性能比较 
(PointNet和Transformer为从头训练的模型,APF w. RPN为本文提出我们提出的采用随机轻量PointNet的APF架构)

基于以上观察,本文提出了Adapt PointFormer (APF),通过微调二维预训练模型来处理点云数据,从而将二维图像的先验知识迁移并校准到三维点云分析中。为了更有效地利用二维自注意力机制,APF使维度对齐网络可训练,并引入了点嵌入序列化技术来模拟二维图像的有序token。此外,本文借鉴了AdaptFormer [5][6]的微调技术,以校准图像注意力先验,我们将该模块称为PointFormer。通过在多个常用三维数据集上进行实验,验证了APF在三维点云分析中的有效性。

II


 技术贡献 

本工作主要贡献如下:

  • 本文研究了预训练图像模型在三维点云分析中的潜力,并揭示了通过最小化微调参数可直接利用二维先验知识,并且可以超越直接在三维数据上训练的模型;

  • 本文提出了一种新颖的框架--APF,该框架通过微调二维预训练模型,使其直接应用于三维点云分析,为三维点云处理领域提供了新的研究视角和技术途径。


III


 方法介绍 

Adapt PointFormer方法主要由对齐图像和点云特征和微调图像模型两部分组成,第一部分先将点云嵌入成token块再利用Z-order曲线来对齐点云token块和二维图像先验知识,第二部分提出PointFromer的微调方法,利用小部分参数即可获得大幅的性能提升。


对于第一部分,首先利用Point Embedding将点云编码为无序的token块,再利用Z-order曲线对这些token块进行排序,从而将其转换成有序的序列。这一过程确保了点云数据在输入到预训练模型之前具有良好的结构性和顺序性。对于第二部分,我们将排序后的有序token块输入至二维预训练模型中,并通过提出的Point Former模块微调该二维模型。Point Former使得二维图像的先验知识能够有效地集成到以编码的三维token块中,从而提升了模型在处理三维数据时编码特征的能力。这些经过处理的token块被输送到下游任务的处理器中,可以完成各类三维点云分析任务,如分类、分割、提取等。


本研究中可训练的参数主要集中在两个关键模块:Point Embedding模块主要由轻量级的PointNet构成,实质上是一系列简单的多层感知器,其作用是将点云数据的维度转换至预训练的二维模型可以接收的格式。这一转换过程不仅保留了点云的几何特征,还确保了数据与二维模型的兼容性。Point Former模块则由降维矩阵、激活函数和升维矩阵组成,其结构如图2所示。这种结构能够减少需要训练的参数的数量,提高训练效率。该模块能够将二维先验校准到特定三维任务中,增强了特征的表示能力,使其更加多样化,有助于利用预训练模型中的二维先验,从而更好地捕捉点云数据中的复杂特征。APF整体框架如图3所示:

图2 Point Former结构图

图3 模型总体结构图

IV


 部分结果展示 

我们首先展示莫顿曲线,通过莫顿算法,我们将无序的点云块转换为有序的点云块,我们将原本无序的点云块转换为了有序的点云块。这一步骤对于对齐点云和图像特征至关重要,这个操作确保了点云数据在空间上的连续性和顺序性,从而使得二维预训练模型能够更好地理解和处理这些数据,从而对齐点云和图像的特征。由图4可见,经过莫顿排序后,原本无序的点云块被重新排列,形成了一个(机头)到中(机身)到下(尾翼)的有序结构。

图4 一维点云块在实际在三维物体中的位置

我们利用t-SNE对模型提取的三维点云特征进行了可视化,结果如图5所示,为我们提供了对特征分布和模型性能的直观理解。可以观察到,即使在未经训练的RPN中,相同类别的点云特征能够较为紧密地聚集在一起,而不同类别的特征则能够清晰地分开。这一现象表明,仅根据二维先验,APF也能够有效地提取句具有区分度的特征。

图5 T-SNE可视化特征的分布

为了量化展示APF的有效性,我们展示了在三维点云分析领域常用的基准测试集上的实验结果。为了全面评估所提出方法的有效性和可扩展性,我们将该方法与传统的基于MLP方法和流行的基于Transformer的方法进行了比较。表1和表2分别展示了在物体分类任务上的实验结果,表3为部件分割任务上的结果:

表1 ModelNet40上的测试结果 

表2 ScanobjectNN的测试结果

表3 ShapeNetPart部件分割的结果


为了深入分析APF方法中各个模块的贡献和有效性,我们进行了消融实验,其结果如表4所示:

表4 Adapt PointFormer各模块的作用

V


 总结与展望 
本文通过使用随机初始化的网络进行维度对齐,验证了二维图像先验知识在三维数据上的应用潜力。这一发现表明,预训练的二维模型有助于点云分析。基于这一发现,本文进一步提出了Adapt PointFormer (APF)框架,该框架通过微调预训练的二维视觉模型,使其能够适应并应用于下游的三维点云分析任务。APF框架主要由以下两部分构成:点云嵌入网络、点云块排序器。通过这种设计,APF能够在不将点云直接映射成图像的情况下,更有效地利用二维图像模型的先验知识。

尽管APF在多种三维点云分析任务中展现了其有效性,但相较于通过将三维模型映射为二维图像来利用二维预训练模型先验知识的方法,APF的性能的提升伴随着训练参数数量的增加。因此,未来的研究将聚焦于如何以更少的参数和更低的计算复杂度来校准二维预训练模型,以实现更加高效的三维点云分析。

VI


 思考与讨论 
Q: 点云自身存在的位置信息是否会影响预训练ViT固有的位置信息? 
A: 考虑到点云自身的位置信息和预训练ViT位置信息不对齐的情况下,本文应用了莫顿排序,将无序的点云块变成有序的点云块,以此对齐位置信息。

Q: 该方法和将点云映射成图片在利用2D模型的方法相比,即P2P,有什么不同? 
A: 该方法直接的利用了2D的模型,我们的前序步骤是点云提取成token块,在提取成token块的过程中,我们利用了轻量的pointnet网络,该网络有可学习的参数,可学习到P2P丢失的三维几何信息,并且通过排序操作可充分利用2维预训练模型的先验语义信息,紧接着通过微调二维预训练模型来提高性能。 

以下是开放性问题,欢迎读者朋友留言讨论: 
Q: APF已经验证了在2D图像模型的有效性,该方法是否在处理自然语言的大模型上有同样的效果?

-- End--



导 读 | 黎达
审 核 | 李梦柯
编 辑 | 申


参考文献

[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. Conference of the North American Chapter of the Association for Computational Linguistics (NAACL). 4171-4186, 2019. 

[2] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly. An image is worth 16x16 words: Transformers for image recognition at scale. International Conference on Learning Representations (ICLR). 2021. 

[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin. Attention is all you need. Advances in Neural Information Processing Systems (NeurIPS). 5998-6008, 2017.

[4] Alec Radford, Jong Wook Kim, Christine Hallacy, Aditya Ramesh, Gabriel Goh, Sandhini Agarwal, Girish Sastry, Amanda Askell, Pamela Mishkin, Jack Clark. Learning transferable visual models from natural language supervision. International Conference on Learning Representations (ICLR). 2021. 

[5] Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Sijia Wang, Lu Wang, Weizhu Chen. Lora: Low-rank adaptation of large language models. International Conference on Learning Representations (ICLR). 2022. 

[6] Shoufa Chen, Chongjian Ge, Zhan Tong, Jianmin Wang, Yibing Song, Jian Yang Wang, Ping Luo. Adaptformer: Adapting vision transformers for scalable visual recognition. Advances in Neural Information Processing Systems (NeurIPS). 16664-16678, 2022.




深圳大学可视计算研究中心
Visual Computing Research Center
----------------------------------
https://vcc.tech


中心以计算机图形学、计算机视觉、可视化、机器人、人工智能、人机交互为学科基础,致力促进多个学科的深入交叉与集成创新,重点推进大规模静动态数据获取与优化融合、多尺度几何建模与图像处理、可视内容生成与仿真渲染、复杂场景重建与识别理解、三维移动协同感知与人机交互、智能模拟学习与强化认知、海量信息可视化与可视分析等方面的科学研究。

📫
转载及合作:szuvcc@gmail.com


深圳大学可视计算研究中心
深圳大学可视计算研究中心致力于大力提升可视计算科学研究与高等教育水平,以计算机图形学、计算机视觉、人机交互、机器学习、机器人、可视化和可视分析为学科基础,促进多个学科的深入交叉和集成创新。详见官网: vcc.tech
 最新文章