
摘要
实际物体位姿估计需要具备对目标物体遮挡的鲁棒性。当前最先进的(SOTA)物体位姿估计算法通常采用两阶段方法:第一阶段利用深度网络预测2D关键点,第二阶段则基于2D-3D对应关系求解6自由度(6DOF)位姿。尽管该方法被广泛采用,但在泛化至新型遮挡场景时仍可能表现不佳,且由于特征被破坏导致关键点之间的关联性较弱。为解决上述问题,我们提出一种新颖的“遮挡与掩蔽”批量增强技术,用于学习对遮挡具有鲁棒性的深层特征;同时设计了一种多精度监督架构,以促进整体位姿表示的学习,从而实现更准确、更一致的关键点预测。我们通过细致的消融实验验证了各项创新设计的有效性,并将所提方法与现有SOTA位姿估计算法进行了对比。在无需任何后处理或精炼步骤的前提下,我们的方法在LINEMOD数据集上展现出卓越性能;在YCB-Video数据集上,我们的方法在ADD(-S)指标上超越了所有无需精炼的现有方法。此外,我们还验证了该方法在数据效率方面的优异表现。相关代码已开源,地址为:http://github.com/BoChenYS/ROPE。