
본 논문에서는 온라인 인간 자세 추적을 위한 새로운 경량 프레임워크인 LightTrack를 제안합니다. 제안된 프레임워크는 상위-하위(top-down) 자세 추적에 일반적으로 적용될 수 있으며, 기존의 온라인 및 오프라인 방법보다 빠릅니다. 단일 인물 자세 추적(Single-Person Pose Tracking, SPT)과 시각 객체 추적(Visual Object Tracking, VOT)이 하나의 통합된 기능체로 결합되어, 교체 가능한 단일 인물 자세 추정 모듈을 통해 쉽게 구현할 수 있습니다. 본 프레임워크는 단일 인물 자세 추적과 다중 인물 식별 연관성을 통합하며, 키포인트 추적과 객체 추적을 연결하는 첫 번째 시도를 제공합니다. 또한, 본 논문에서는 우리의 자세 추적 시스템에서 Re-ID 모듈로 사용되는 인간 자세 매칭을 위한 Siamese 그래프 컨벌루션 네트워크(Siamese Graph Convolution Network, SGCN)를 제안합니다. 다른 Re-ID 모듈들과 달리, 우리는 그래픽으로 표현된 인간 관절을 사용하여 매칭합니다. 이 관절 기반 표현은 인간 자세 유사성을 효과적으로 포착하고 계산 비용이 적습니다. 갑작스러운 카메라 이동으로 인한 인간 위치 이탈에도 견고합니다. 최선의 지식 범위 내에서, 이는 상위-하위 방식으로 온라인 인간 자세 추적 프레임워크를 제안하는 첫 번째 논문입니다. 제안된 프레임워크는 다른 자세 추정기와 후보 매칭 메커니즘에 충분히 일반적이므로 쉽게 적용할 수 있습니다. 우리의 방법은 훨씬 더 높은 프레임 속도를 유지하면서 다른 온라인 방법들을 능가하며, 오프라인 최신 기술(state-of-the-art)과 매우 경쟁력이 있습니다. 코드는 공개적으로 이용 가능하며 다음 주소에서 확인할 수 있습니다: https://github.com/Guanghan/lighttrack.