16 天前

重新思考用于LiDAR分割的范围视图表示

Lingdong Kong, Youquan Liu, Runnan Chen, Yuexin Ma, Xinge Zhu, Yikang Li, Yuenan Hou, Yu Qiao, Ziwei Liu
重新思考用于LiDAR分割的范围视图表示
摘要

LiDAR点云分割在自动驾驶感知中至关重要。近年来,基于点或体素(voxel)的方法因其通常优于传统距离视图(range view)表示的性能而备受青睐。本文揭示了构建高效距离视图模型中的若干关键因素。我们发现,“多对一”映射、语义不一致性以及形状变形可能是阻碍从距离视图投影中有效学习的主要障碍。为此,我们提出RangeFormer——一个端到端的完整框架,其在网络架构、数据增强和后处理等环节均引入了创新设计,能够更有效地处理来自距离视图的LiDAR点云的学习与处理任务。此外,我们进一步提出一种可扩展的距离视图训练策略(Scalable Training from Range view, STR),该策略可在任意低分辨率2D距离图像上进行训练,同时仍能保持令人满意的3D分割精度。实验表明,这是首次有距离视图方法在SemanticKITTI、nuScenes和ScribbleKITTI等主流LiDAR语义与全景分割基准测试中,超越了点云、体素以及多视角融合方法的性能表现。