HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage contrastif pour le suivi d'objets multiples avec des Transformers

Pierre-François De Plaen Nicola Marinello Marc Proesmans Tinne Tuytelaars Luc Van Gool

Résumé

Le DETR (Detection Transformer) a ouvert de nouvelles perspectives pour la détection d'objets en modélisant cette tâche comme un problème de traduction : la conversion de caractéristiques d'image en représentations au niveau des objets. Les travaux antérieurs ont généralement ajouté des modules coûteux au DETR afin de réaliser le suivi d'objets multiples (MOT), entraînant ainsi des architectures plus complexes. Nous montrons au contraire comment transformer le DETR en modèle de MOT en utilisant une perte contrastive au niveau des instances, une stratégie d'échantillonnage révisée et une méthode légère d'affectation. Notre méthode d'entraînement permet d'apprendre les apparences des objets tout en préservant les performances de détection, avec un surcoût négligeable. Ses résultats dépassent l'état de l'art précédent de +2,6 mMOTA sur le dataset exigeant BDD100K, et sont comparables aux méthodes basées sur les transformateurs existantes sur le dataset MOT17.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp