11 天前

LXL:基于4D成像雷达与相机融合的LiDAR剔除型轻量级3D目标检测

Weiyi Xiong, Jianan Liu, Tao Huang, Qing-Long Han, Yuxuan Xia, Bing Zhu
LXL:基于4D成像雷达与相机融合的LiDAR剔除型轻量级3D目标检测
摘要

作为一种新兴技术且成本相对较低的设备,4D成像雷达已在自动驾驶场景中被证实能够有效实现三维目标检测。然而,4D雷达点云存在稀疏性和噪声大的问题,严重制约了检测性能的进一步提升,且关于其与其他模态深度融合的深入研究仍显不足。另一方面,作为一种新型的图像视图变换策略,“采样”(sampling)方法已被少数基于图像的检测器所采用,并展现出优于广泛使用的“基于深度的点投射”(depth-based splatting)策略的性能,即使在不依赖图像深度预测的情况下亦如此。然而,“采样”方法的潜力尚未得到充分挖掘。本文针对基于摄像头与4D成像雷达融合的三维目标检测任务,系统研究了“采样”视图变换策略的应用。所提出的LiDAR Excluded Lean(LXL)模型,分别从图像视角特征(image perspective view, PV)中生成预测的图像深度分布图,从雷达鸟瞰图特征(radar bird’s eye view, BEV)中生成雷达三维占据网格(3D occupancy grids)。这两类信息被送入LXL模型的核心模块——“雷达占据辅助的基于深度的采样”(radar occupancy-assisted depth-based sampling),用于辅助图像视图变换过程。实验表明,通过引入图像深度信息与雷达感知数据,可显著增强“采样”策略的准确性,从而实现更精确的视图变换。在VoD与TJ4DRadSet两个数据集上的实验结果表明,所提出的方法在不依赖任何复杂后处理或额外优化技巧(bells and whistles)的情况下,显著超越现有最先进三维目标检测方法。消融实验进一步验证了在不同增强配置中,本方法在各项指标上均表现最优,充分证明了其有效性与鲁棒性。

LXL:基于4D成像雷达与相机融合的LiDAR剔除型轻量级3D目标检测 | 最新论文 | HyperAI超神经