HyperAIHyperAI

Command Palette

Search for a command to run...

Un cadre fondé sur Transformer pour l’apprentissage des représentations de séries temporelles multivariées

George Zerveas Srideepika Jayaraman Dhaval Patel Anuradha Bhamidipaty Carsten Eickhoff

Résumé

Dans ce travail, nous proposons pour la première fois un cadre basé sur les transformateurs pour l’apprentissage non supervisé de représentations de séries temporelles multivariées. Des modèles pré-entraînés peuvent potentiellement être utilisés pour des tâches ultérieures telles que la régression, la classification, la prévision et l’imputation de valeurs manquantes. En évaluant nos modèles sur plusieurs jeux de données standardisés pour la régression et la classification de séries temporelles multivariées, nous montrons que notre approche de modélisation représente non seulement la méthode la plus performante à ce jour utilisant l’apprentissage non supervisé de séries temporelles multivariées, mais dépasse également les performances actuelles des méthodes supervisées, même lorsque le nombre d’échantillons d’entraînement est très limité, tout en offrant une efficacité computationnelle remarquable. Enfin, nous démontrons qu’un pré-entraînement non supervisé de nos modèles transformateurs procure un avantage significatif en termes de performance par rapport à l’apprentissage entièrement supervisé, même sans exploiter de données non étiquetées supplémentaires, c’est-à-dire en réutilisant les mêmes échantillons de données via une objectif non supervisé.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp