
사람들은 3차원 세계에 산다. 그러나 기존의 사람 재식별(person re-identification, re-id) 연구 대부분은 2차원 공간에서 의미 표현 학습에 집중하여, 사람에 대한 이해를 본질적으로 제한하고 있다. 본 연구에서는 이러한 한계를 극복하기 위해 3차원 신체 구조에 대한 사전 지식을 탐구한다. 구체적으로, 2차원 이미지를 3차원 공간으로 투영하고, 보행자 표현을 3차원 점군(point cloud)에서 직접 학습할 수 있도록 새로운 파라미터 효율적인 옴니스케일 그래프 네트워크(Omni-scale Graph Network, OG-Net)를 제안한다. OG-Net은 희소한 3차원 점들로부터 제공되는 국소 정보를 효과적으로 활용하며, 구조적 특성과 외관 정보를 일관성 있게 통합한다. 3차원 기하학적 정보를 활용함으로써, 체적(scale) 및 시점(viewpoint)과 같은 노이즈가 많은 변형 요소로부터 자유로운 새로운 유형의 깊은 재식별 특징을 학습할 수 있다. 우리 연구를 포함한 기존 사례들을 고려할 때, 본 연구는 3차원 공간에서 사람 재식별을 시도한 최초의 시도 중 하나이다. 광범위한 실험을 통해 제안된 방법이 (1) 기존 2차원 공간에서의 매칭 난이도를 완화하며, (2) 2차원 외관과 3차원 구조 간의 보완적 정보를 효과적으로 활용하며, (3) 네 개의 대규모 사람 재식별 데이터셋에서 제한된 파라미터로 경쟁력 있는 성능을 달성하며, (4) 미지의 데이터셋에 대해 우수한 확장성을 보임을 입증하였다. 본 연구의 코드, 모델 및 생성된 3차원 인간 데이터는 공개적으로 제공되며, https://github.com/layumi/person-reid-3d 에서 확인할 수 있다.