3 个月前

SAT:面向3D点云语义分割的尺寸感知Transformer

Junjie Zhou, Yongping Xiong, Chinwai Chiu, Fangyu Liu, Xiangyang Gong
SAT:面向3D点云语义分割的尺寸感知Transformer
摘要

Transformer模型在点云分割任务中已取得令人瞩目的性能表现。然而,现有的大多数注意力机制对所有点采用相同的特征学习范式,未能充分考虑场景中物体尺寸的巨大差异。为此,本文提出了一种尺寸感知Transformer(Size-Aware Transformer, SAT),能够为不同尺寸的物体自适应地构建有效的感受野。SAT通过两个关键步骤实现尺寸感知学习:在每一注意力层中引入多尺度特征,并使每个点能够自适应地选择其关注区域。SAT包含两项核心设计:多粒度注意力(Multi-Granularity Attention, MGA)机制与重注意力(Re-Attention)模块。MGA机制旨在解决两个关键挑战:高效聚合远距离区域的特征信息,以及在单个注意力层内保持多尺度特征表达。具体而言,本文提出点-体素交叉注意力以应对远距离特征聚合问题;同时,采用基于标准多头自注意力的分流策略(shunted strategy)来有效保留多尺度特征。随后,重注意力模块动态调整MGA输出的细粒度与粗粒度特征对应的注意力分数,进一步提升特征表达能力。大量实验结果表明,SAT在S3DIS和ScanNetV2两个主流数据集上均达到了当前最优(state-of-the-art)的分割性能。此外,SAT在各类别间的性能表现最为均衡,充分体现了其在建模不同尺寸类别物体方面的优越性。本文所提出的代码与模型将在论文正式录用后公开发布。