11일 전
ETTrack: 다중 객체 추적을 위한 향상된 시간적 운동 예측기
Xudong Han, Nobuyuki Oishi, Yueying Tian, Elif Ucurum, Rupert Young, Chris Chatwin, Philip Birch

초록
다수의 다객체 추적(Multi-Object Tracking, MOT) 기법은 프레임 간에 탐지된 객체들을 연결하기 위해 운동 정보를 활용한다. 그러나 칼만 필터와 같은 필터 기반 알고리즘에 의존하는 많은 기법들은 선형 운동 상황에서는 우수한 성능을 보이지만, 복잡하고 비선형적인 운동을 하는 객체의 위치를 정확히 예측하기에는 한계가 있다. 이러한 문제를 해결하기 위해 우리는 향상된 시간적 운동 예측 모델을 탑재한 운동 기반 MOT 접근법인 ETTrack을 제안한다. 구체적으로, 운동 예측 모델은 트랜스포머 모델과 시간적 컨볼루션 네트워크(Temporal Convolutional Network, TCN)를 통합하여 단기 및 장기 운동 패턴을 효과적으로 포착하고, 과거 운동 정보를 기반으로 개별 객체의 미래 운동을 예측한다. 또한, 학습 과정에서 객체의 운동 방향에 대한 추가 정보를 제공하는 새로운 모멘텀 보정 손실 함수(Momentum Correction Loss)를 제안한다. 이 손실 함수는 운동 예측 모델이 운동 변화에 빠르게 적응하고, 더 정확하게 미래 운동을 예측할 수 있도록 한다. 실험 결과, ETTrack은 DanceTrack과 SportsMOT에서 최신 기술 대비 경쟁력 있는 성능을 보였으며, 각각 HOTA 지표에서 56.4%, 74.4%의 성과를 기록했다.