HyperAIHyperAI

Command Palette

Search for a command to run...

PRformer : Transformateur récurrent pyramidal pour la prévision de séries temporelles multivariées

Yongbo Yu¹, Weizhong Yu¹, Feiping Nie¹, Xuelong Li²

Résumé

Le mécanisme d'auto-attention dans l'architecture Transformer, invariant à l'ordre de la séquence, nécessite des plongements positionnels (positional embeddings) pour encoder l'ordre temporel dans les prédictions de séries chronologiques. Nous soutenons que cette dépendance aux plongements positionnels restreint la capacité du Transformer à représenter efficacement les séquences temporelles, en particulier lorsqu'on utilise des fenêtres de rétention plus longues. Pour remédier à cela, nous introduisons une approche innovante qui combine les plongements RNN pyramidaux (Pyramid RNN embeddings, PRE) pour les séries chronologiques univariées avec la capacité du Transformer à modéliser les dépendances multivariées. Les PRE, en utilisant des couches de convolution unidimensionnelle pyramidales, construisent des caractéristiques convolutives multiscale qui préservent l'ordre temporel. De plus, les RNNs superposés sur ces caractéristiques apprennent des représentations de séries chronologiques multiscale sensibles à l'ordre de la séquence. Cette intégration dans les modèles Transformer dotés de mécanismes d'attention entraîne des améliorations significatives des performances. Nous présentons le PRformer, un modèle intégrant les PRE avec un encodeur Transformer standard, qui montre des performances de pointe sur divers jeux de données réels. Ces performances mettent en lumière l'efficacité de notre approche pour exploiter des fenêtres de rétention plus longues et soulignent le rôle crucial de représentations temporelles solides pour maximiser le potentiel du Transformer dans les tâches de prédiction. Le code est disponible dans ce dépôt : \url{https://github.com/usualheart/PRformer}.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp