2 个月前
快速神经场景流
Xueqian Li; Jianqiao Zheng; Francesco Ferroni; Jhony Kaesemodel Pontes; Simon Lucey

摘要
神经场景流先验(Neural Scene Flow Prior, NSFP)因其对分布外(Out-of-Distribution, OOD)效应的固有鲁棒性和处理密集激光雷达点的能力而受到视觉社区的广泛关注。该方法利用坐标神经网络在运行时估计场景流,无需任何训练。然而,其速度比当前最先进的学习方法慢了多达100倍。在其他应用中,如图像、视频和辐射函数重建,加速坐标网络运行时性能的创新主要集中在架构变化上。本文中,我们证明了场景流有所不同——主要的计算瓶颈来自于损失函数本身(即Chamfer距离)。此外,我们重新发现了距离变换(Distance Transform, DT)作为一种高效且无需对应关系的损失函数,能够显著加快运行时优化的速度。我们的快速神经场景流(Fast Neural Scene Flow, FNSF)方法首次报告了与学习方法相当的实时性能,在两个最大的开放自动驾驶(Autonomous Vehicle, AV)激光雷达数据集Waymo Open和Argoverse上实现了无需任何训练或OOD偏差的效果。