HyperAIHyperAI

Command Palette

Search for a command to run...

AiATrack : Attention dans l'Attention pour le Suivi Visuel par Transformer

Shenyuan Gao Chunluan Zhou Chao Ma Xinggang Wang Junsong Yuan

Résumé

Les trackers à base de Transformers ont récemment réalisé des avancées impressionnantes, où le mécanisme d'attention joue un rôle crucial. Cependant, le calcul indépendant des corrélations dans ce mécanisme peut entraîner des poids d'attention bruyants et ambigus, ce qui freine les améliorations ultérieures des performances. Pour remédier à ce problème, nous proposons un module d'attention en attention (AiA), qui renforce les corrélations appropriées et atténue les erreurs en recherchant un consensus parmi tous les vecteurs de corrélation. Notre module AiA peut être facilement intégré aux blocs d'auto-attention et de co-attention afin de faciliter l'agrégation des caractéristiques et la propagation de l'information pour le suivi visuel. De plus, nous proposons une architecture de suivi par Transformers simplifiée, appelée AiATrack, en introduisant une utilisation efficace du réutilisation des caractéristiques et des plongements cible-fond pour tirer pleinement parti des références temporelles. Les expériences montrent que notre tracker atteint des performances de pointe sur six benchmarks de suivi tout en fonctionnant à une vitesse en temps réel.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp