2 个月前
EdgeNet:从单个RGB-D图像进行语义场景补全
Aloisio Dourado; Teofilo Emidio de Campos; Hansung Kim; Adrian Hilton

摘要
语义场景补全是根据单一视角预测场景的完整3D表示的任务,该表示包括体素占用及其对应的语义标签。以往基于RGB-D数据的语义场景补全研究要么仅使用深度信息,要么结合深度和颜色信息,通过将2D图像投影到3D体积中,从而生成稀疏的数据表示。在本工作中,我们提出了一种新的策略,利用边缘检测和翻转截断符号距离(flipped truncated signed distance)在3D空间中编码颜色信息。我们还介绍了EdgeNet,这是一种新的端到端神经网络架构,能够处理由深度和边缘信息融合生成的特征。实验结果表明,在真实数据上,我们的端到端方法比现有最佳结果提高了6.9%。