HyperAIHyperAI

Command Palette

Search for a command to run...

Entraînement unifié de transformateurs universels pour la prévision de séries temporelles

Gerald Woo Chenghao Liu Akshat Kumar Caiming Xiong Silvio Savarese Doyen Sahoo

Résumé

L’apprentissage profond pour la prévision de séries temporelles a traditionnellement fonctionné selon un cadre un modèle par jeu de données, limitant ainsi son potentiel à tirer parti de l’impact révolutionnaire des grands modèles pré-entraînés. Le concept de prévision universelle, émergent à partir d’un pré-entraînement sur une vaste collection de jeux de données de séries temporelles, imagine un seul grand modèle de séries temporelles capable de traiter une diversité de tâches de prévision en aval. Toutefois, la construction d’un tel modèle soulève des défis spécifiques aux données de séries temporelles : i) l’apprentissage à travers les fréquences, ii) l’adaptation à un nombre arbitraire de variables pour les séries temporelles multivariées, et iii) la prise en compte des propriétés distributionnelles variables inhérentes aux grands ensembles de données. Pour relever ces défis, nous proposons des améliorations novatrices de l’architecture classique du Transformer pour séries temporelles, menant à notre modèle intitulé Transformer de prévision universelle basé sur un encodeur masqué (Moirai). Entraîné sur notre nouvelle archive ouverte à grande échelle de séries temporelles (LOTSA), comprenant plus de 27 milliards d’observations réparties sur neuf domaines, Moirai atteint des performances compétitives ou supérieures en tant que modèle zéro-shot par rapport à des modèles entraînés en plein (full-shot). Le code, les données et les poids du modèle sont disponibles à l’adresse suivante : https://github.com/SalesforceAIResearch/uni2ts.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Entraînement unifié de transformateurs universels pour la prévision de séries temporelles | Articles | HyperAI