
摘要
我们提出了一种简单但高效的方法,用于学习具有区分性的3D局部深度描述子(DIPs),该描述子可在无需初始对齐的情况下实现点云配准。通过提取点云局部区域,并基于其估计的局部参考系进行规范化的预处理,再利用基于PointNet的深度神经网络将其编码为具有旋转不变性的紧凑描述子。由于DIPs是通过端到端的方式,从局部随机采样的点云数据中学习得到的,因此能够有效泛化于不同传感器模态之间。由于DIPs仅编码局部几何信息,因而对场景杂波、遮挡及缺失区域具有较强的鲁棒性。我们在多个室内与室外数据集上对DIPs进行了评估与对比,这些数据集包含由不同传感器重建的点云。实验结果表明:(i)在RGB-D室内场景(3DMatch数据集)上,DIPs达到与当前最先进方法相当的性能;(ii)在激光扫描的室外场景(ETH数据集)上,DIPs显著优于现有最先进方法;(iii)DIPs可有效泛化至由Android ARCore视觉SLAM系统重建的室内场景。源代码地址:https://github.com/fabiopoiesi/dip。