HyperAIHyperAI

Command Palette

Search for a command to run...

Transformateurs Préservant la Structure pour des Séquences de Matrices SPD

Mathieu Seraphim Alexis Lechervy Florian Yger Luc Brun Olivier Etard

Résumé

Ces dernières années, les mécanismes d'auto-attention basés sur les Transformers ont été appliqués avec succès à l'analyse de divers types de données dépendants du contexte, allant des textes aux images et au-delà, y compris les données provenant de géométries non euclidiennes. Dans cet article, nous présentons un tel mécanisme, conçu pour classifier des séquences de matrices Symétriques Définies Positives tout en préservant leur géométrie riemannienne tout au long de l'analyse. Nous appliquons notre méthode au stade automatique du sommeil sur des séries temporelles de matrices de covariance issues d'EEG à partir d'un jeu de données standard, obtenant des niveaux élevés de performance par stade.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp