Command Palette
Search for a command to run...
Un modèle fondamental à décodeur unique pour la prévision de séries temporelles
Un modèle fondamental à décodeur unique pour la prévision de séries temporelles
Abhimanyu Das Weihao Kong Rajat Sen Yichen Zhou
Résumé
Motivés par les progrès récents des grands modèles linguistiques en traitement du langage naturel (NLP), nous proposons un modèle fondamental pour les séries temporelles destiné à la prévision, dont les performances zéro-shot hors-boîte sur divers jeux de données publics s'approchent de la précision des modèles supervisés d'état de l'art pour chaque jeu de données individuel. Notre modèle repose sur un pré-entraînement d'un modèle d'attention de type décodeur à patch sur un vaste corpus de séries temporelles, et s'avère performant sur différentes longueurs d'histoire de prévision, différentes durées de prédiction et différentes granularités temporelles.