2 个月前
UDA-COPE:无监督领域适应的类别级物体姿态估计
Lee, Taeyeop ; Lee, Byeong-Uk ; Shin, Inkyu ; Choe, Jaesung ; Shin, Ukcheol ; Kweon, In So ; Yoon, Kuk-Jin

摘要
学习估计物体姿态通常需要真实标签(Ground-Truth, GT),例如CAD模型和绝对尺度的物体姿态,这些标签在现实世界中获取既昂贵又费力。为了解决这一问题,我们提出了一种用于类别级物体姿态估计的无监督域适应方法(Unsupervised Domain Adaptation, UDA),称为UDA-COPE。受近期多模态UDA技术的启发,所提出的方法利用教师-学生自监督学习方案,在不使用目标域姿态标签的情况下训练姿态估计网络。我们还引入了一种预测归一化物体坐标空间(Normalized Object Coordinate Space, NOCS)图与观测点云之间的双向过滤方法,不仅使我们的教师网络对目标域更加鲁棒,还为学生网络训练提供了更可靠的伪标签。广泛的实验结果从定量和定性两个方面证明了我们所提出方法的有效性。值得注意的是,在不依赖目标域的真实标签的情况下,我们提出的方法达到了与现有依赖真实标签的方法相当甚至有时更优的性能。