HyperAIHyperAI

Command Palette

Search for a command to run...

Attention Mémoire Temporelle pour la Segmentation Sémantique Vidéo

Hao Wang Weining Wang Jing Liu

Résumé

La segmentation sémantique vidéo nécessite d’exploiter les relations temporelles complexes entre les trames d’une séquence vidéo. Les travaux antérieurs utilisent généralement le flux optique précis pour tirer parti de ces relations temporelles, ce qui entraîne un coût computationnel élevé. Dans cet article, nous proposons un réseau d’attention à mémoire temporelle (TMANet) afin d’intégrer de manière adaptative les relations temporelles à longue portée au sein de la séquence vidéo, en s’appuyant sur le mécanisme d’attention auto-attentionnel sans nécessiter de prédiction exhaustive du flux optique. Plus précisément, nous construisons une mémoire à partir de plusieurs trames passées afin de conserver l’information temporelle de la trame courante. Nous introduisons ensuite un module d’attention à mémoire temporelle pour capturer les relations entre la trame courante et cette mémoire, afin d’améliorer la représentation de la trame actuelle. Notre méthode atteint de nouveaux résultats d’état de l’art sur deux jeux de données exigeants pour la segmentation sémantique vidéo, notamment 80,3 % de mIoU sur Cityscapes et 76,5 % de mIoU sur CamVid, avec un réseau ResNet-50.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp