vid-TLDR : Formation libre de fusion de jetons pour un Transformers vidéo léger

Les Transformers vidéo sont devenus la solution prédominante pour diverses tâches en aval impliquant des vidéos, grâce à leur puissance expressive et flexibilité supérieures. Cependant, ces Transformers vidéo souffrent de coûts computationnels élevés dus au grand nombre de jetons (tokens) présents dans l'ensemble des images du vidéo, ce qui constitue une barrière majeure à l'entraînement du modèle. De plus, les patches non pertinents par rapport aux contenus principaux, comme les arrière-plans, dégradent les performances de généralisation des modèles. Pour résoudre ces problèmes, nous proposons une fusion de jetons sans entraînement supplémentaire pour un Transformer vidéo léger (vid-TLDR), visant à améliorer l'efficacité des Transformers vidéo en fusionnant les jetons d'arrière-plan sans entraînement additionnel. Dans le cadre de vid-TLDR, nous introduisons une nouvelle approche permettant de capturer les régions saillantes dans les vidéos uniquement avec la carte d'attention (attention map). Nous présentons également une stratégie de fusion de jetons sensible à la saillance en éliminant les jetons d'arrière-plan et en affinant les scores d'objets. Nos expériences montrent que vid-TLDR réduit considérablement la complexité computationnelle des Transformers vidéo tout en offrant des performances compétitives par rapport au modèle de base sans vid-TLDR. Le code est disponible sur https://github.com/mlvlab/vid-TLDR.