HyperAIHyperAI
il y a 17 jours

AssembleNet++ : Assemblage de représentations modales par des connexions à attention

Michael S. Ryoo, AJ Piergiovanni, Juhana Kangaspunta, Anelia Angelova
AssembleNet++ : Assemblage de représentations modales par des connexions à attention
Résumé

Nous proposons une famille de modèles vidéo puissants capables de : (i) apprendre les interactions entre les informations sémantiques des objets et les caractéristiques brutes d'apparence et de mouvement, et (ii) intégrer une attention afin d'améliorer l'apprentissage de l'importance des caractéristiques à chaque bloc convolutionnel du réseau. Nous introduisons un nouveau composant réseau appelé peer-attention, qui apprend dynamiquement les poids d'attention à partir d'un autre bloc ou d'une autre modalité d'entrée. Sans pré-entraînement, nos modèles surpassent les approches antérieures sur des jeux de données publics standard pour la reconnaissance d'activités à vidéos continues, établissant ainsi un nouveau record d'état de l'art. Nous confirmons également que nos observations — notamment l'existence de connexions neuronales provenant de la modalité objet et l'utilisation de peer-attention — sont généralement applicables à différentes architectures existantes, améliorant ainsi leurs performances. Nous nommons explicitement notre modèle AssembleNet++. Le code sera disponible à l’adresse suivante : https://sites.google.com/corp/view/assemblenet/