TEMPO : Transformateur pré-entraîné génératif basé sur les prompts pour la prévision de séries temporelles

La décennie écoulée a été marquée par des avancées significatives dans la modélisation des séries temporelles grâce à l’apprentissage profond. Bien que ces approches atteignent des résultats de pointe, les architectures les plus performantes varient fortement selon les applications et les domaines. Parallèlement, dans le domaine du traitement du langage naturel, le modèle Générateur Pré-entraîné Transformer (GPT) a démontré des performances remarquables en entraînant un seul modèle généraliste sur divers jeux de données textuelles. Il est donc intéressant d’explorer si des architectures du type GPT peuvent s’avérer efficaces pour les séries temporelles, en capturant les attributs dynamiques intrinsèques et en permettant des améliorations substantielles de précision. Dans cet article, nous proposons un cadre novateur, TEMPO, capable d’apprendre efficacement des représentations de séries temporelles. Nous mettons l’accent sur l’exploitation de deux biais inductifs essentiels propres aux séries temporelles dans les modèles pré-entraînés : (i) la décomposition de l’interaction complexe entre les composantes tendance, saisonnière et résiduelle ; et (ii) l’introduction de mécanismes de « prompts » afin de faciliter l’adaptation de la distribution dans différents types de séries temporelles. TEMPO étend ainsi la capacité à modéliser dynamiquement des phénomènes temporels réels à partir de données issues de domaines variés. Nos expériences montrent que TEMPO surpasser considérablement les méthodes de pointe dans un cadre zéro-shot sur plusieurs jeux de données standards de séries temporelles. Ce gain de performance se manifeste non seulement dans des scénarios impliquant des jeux de données auparavant inconnus, mais aussi dans des situations à entrées multi-modales. Ce résultat convaincant souligne le potentiel de TEMPO de devenir un cadre fondamental pour la construction de modèles.