
摘要
准确的环境感知对于自动驾驶至关重要。当使用单目相机时,环境中物体的距离估计是一个主要挑战。如果将相机视角转换为鸟瞰图(BEV),距离估计会变得更加容易。对于平坦表面,逆透视映射(IPM)可以准确地将图像转换为鸟瞰图。然而,车辆和易受伤害的道路使用者等三维物体在这一变换过程中会发生畸变,导致难以估计它们相对于传感器的位置。本文介绍了一种基于多台车载相机获取校正后的360°鸟瞰图的方法。校正后的鸟瞰图被分割为语义类别,并包括对遮挡区域的预测。该神经网络方法不依赖于人工标注的数据,而是通过合成数据集进行训练,以确保其能够很好地泛化到真实世界数据中。通过使用语义分割图像作为输入,我们缩小了模拟数据与真实世界数据之间的现实差距,并证明了我们的方法可以在实际应用中取得成功。在合成数据上进行的广泛实验表明,我们的方法相比IPM具有显著优势。源代码和数据集可在https://github.com/ika-rwth-aachen/Cam2BEV 获取。