HyperAIHyperAI

Command Palette

Search for a command to run...

MeMOTR : Transformer à mémoire augmentée à long terme pour le suivi d'objets multiples

Ruopeng Gao Limin Wang

Résumé

En tant que tâche vidéo, le suivi d’objets multiples (Multiple Object Tracking, MOT) doit capturer efficacement les informations temporelles des cibles. Malheureusement, la plupart des méthodes existantes exploitent uniquement de manière explicite les caractéristiques des objets entre cadres consécutifs, tout en manquant de capacité à modéliser les informations temporelles à long terme. Dans cet article, nous proposons MeMOTR, un Transformer enrichi par une mémoire à long terme pour le suivi d’objets multiples. Notre méthode permet de rendre les embeddings de trajectoire du même objet plus stables et plus distincts en exploitant une injection de mémoire à long terme via une couche d’attention mémoire personnalisée. Cela améliore significativement la capacité d’association des cibles de notre modèle. Les résultats expérimentaux sur DanceTrack montrent que MeMOTR dépasse de manière impressionnante la méthode de l’état de l’art de 7,9 % et 13,0 % respectivement sur les métriques HOTA et AssA. En outre, notre modèle surpasse également d’autres méthodes basées sur Transformer en termes de performance d’association sur MOT17, et se généralise bien sur BDD100K. Le code est disponible à l’adresse suivante : https://github.com/MCG-NJU/MeMOTR.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp