HyperAIHyperAI
il y a 2 mois

AiATrack : Attention dans l'Attention pour le Suivi Visuel par Transformer

Shenyuan Gao; Chunluan Zhou; Chao Ma; Xinggang Wang; Junsong Yuan
AiATrack : Attention dans l'Attention pour le Suivi Visuel par Transformer
Résumé

Les trackers à base de Transformers ont récemment réalisé des avancées impressionnantes, où le mécanisme d'attention joue un rôle crucial. Cependant, le calcul indépendant des corrélations dans ce mécanisme peut entraîner des poids d'attention bruyants et ambigus, ce qui freine les améliorations ultérieures des performances. Pour remédier à ce problème, nous proposons un module d'attention en attention (AiA), qui renforce les corrélations appropriées et atténue les erreurs en recherchant un consensus parmi tous les vecteurs de corrélation. Notre module AiA peut être facilement intégré aux blocs d'auto-attention et de co-attention afin de faciliter l'agrégation des caractéristiques et la propagation de l'information pour le suivi visuel. De plus, nous proposons une architecture de suivi par Transformers simplifiée, appelée AiATrack, en introduisant une utilisation efficace du réutilisation des caractéristiques et des plongements cible-fond pour tirer pleinement parti des références temporelles. Les expériences montrent que notre tracker atteint des performances de pointe sur six benchmarks de suivi tout en fonctionnant à une vitesse en temps réel.

AiATrack : Attention dans l'Attention pour le Suivi Visuel par Transformer | Articles de recherche récents | HyperAI