UCMCTrack: Mehrobjektverfolgung mit Kompensation der gleichförmigen Kamerabewegung

Die Mehrzielverfolgung (MOT) in Videosequenzen bleibt eine herausfordernde Aufgabe, insbesondere in Szenarien mit erheblichen Kamerabewegungen. Dies liegt daran, dass die Ziele auf der BildEbene erheblich verschwinden können, was zu fehlerhaften Verfolgungsergebnissen führt. Die Bewältigung solcher Herausforderungen erfordert in der Regel zusätzliche Erscheinungsmerkmale oder die Kamerabewegungskompensation (CMC). Obwohl diese Strategien effektiv sind, verursachen sie auch einen beträchtlichen Rechenaufwand und stellen somit eine Herausforderung für die Echtzeit-MOT dar. Als Reaktion darauf präsentieren wir UCMCTrack, einen neuartigen, auf einem Bewegungsmodell basierenden Tracker, der gegenüber Kamerabewegungen robust ist. Im Gegensatz zur konventionellen CMC, die Kompensationsparameter frame-weise berechnet, wendet UCMCTrack konsistent dieselben Kompensationsparameter über die gesamte Videosequenz an. Es verwendet einen Kalman-Filter auf der Bodenebene und führt den abgebildeten Mahalanobis-Abstand (Mapped Mahalanobis Distance, MMD) als Alternative zum traditionellen IoU-Abstandsmaß (Intersection over Union) ein. Durch die Nutzung projizierter Wahrscheinlichkeitsverteilungen auf der Bodenebene fängt unser Ansatz Bewegungsmuster effizient ein und bewältigt geschickt Unsicherheiten, die durch Homographie-Projektionen eingeführt werden. Bemerkenswerterweise erreicht UCMCTrack allein durch die Nutzung von Bewegungshinweisen Spitzenleistungen in einer Vielzahl anspruchsvoller Datensätze, einschließlich MOT17, MOT20, DanceTrack und KITTI. Weitere Details und Code sind unter https://github.com/corfyi/UCMCTrack verfügbar.