HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage du Vision Transformer avec Squeeze and Excitation pour la reconnaissance d'expressions faciales

Mouath Aouayeb Wassim Hamidouche Catherine Soladie Kidiyo Kpalma Renaud Seguier

Résumé

Depuis plusieurs décennies, la mise à disposition de diverses bases de données d'expressions faciales a suscité un intérêt croissant pour la tâche de reconnaissance des expressions faciales (FER). La diversité des sources des bases de données disponibles a posé plusieurs défis pour cette tâche. Ces défis sont généralement abordés par des architectures de réseaux de neurones convolutifs (CNN). À la différence des modèles CNN, une architecture basée sur le mécanisme d’attention, appelée Transformer, a récemment été proposée pour traiter des tâches visuelles. Toutefois, l’un des principaux inconvénients des Transformers réside dans la nécessité d’un grand volume de données d’entraînement, alors que la plupart des bases de données FER restent limitées par rapport aux applications visuelles classiques. Dans ce papier, nous proposons donc d’apprendre conjointement un Transformer visuel et un bloc Squeeze and Excitation (SE) pour la tâche de FER. La méthode proposée est évaluée sur plusieurs bases de données FER publiques, notamment CK+, JAFFE, RAF-DB et SFEW. Les expérimentations montrent que notre modèle dépasse les méthodes de pointe sur CK+ et SFEW, tout en obtenant des résultats compétitifs sur JAFFE et RAF-DB.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp