Comment les caractéristiques apportent-elles des bénéfices : intégration parallèle de séries temporelles multivariées pour la prévision des séries temporelles multivariées avec Transformer
La prévision de séries temporelles constitue un domaine mathématique à la fois fascinant et essentiel. Des théories et des applications dans des domaines connexes ont été étudiées pendant des décennies, et ces dernières années, l’apprentissage profond a offert des outils fiables. Le modèle Transformer, capable de capturer des dépendances sur de longues séquences, a été exploité comme une architecture puissante pour la prévision de séries temporelles. Bien que les travaux existants se soient principalement concentrés sur la surmonter le goulot d’étranglement mémoire du Transformer, l’exploitation efficace des séries temporelles multivariées reste largement sous-étudiée. Dans ce travail, nous proposons une nouvelle architecture fondée sur un Transformer principal afin de réaliser des prédictions sur des séries temporelles multivariées. Notre architecture présente deux avantages principaux. Premièrement, elle permet une prédiction précise de séries temporelles multivariées, qu’elles soient de courte ou de longue durée, et pour un nombre variable d’étapes. Nous avons évalué notre modèle par rapport à diverses architectures de référence sur des jeux de données du monde réel, et nos résultats montrent une amélioration significative par rapport aux modèles existants. Deuxièmement, cette architecture peut être facilement intégrée dans des variantes basées sur le Transformer.