HyperAIHyperAI
il y a 17 jours

Traffic Transformer : Capturer la continuité et la périodicité des séries temporelles pour la prévision du trafic

{Rui Zhu, Bo Yan, Gengchen Mai, Krzysztof Janowicz, Ling Cai}
Résumé

La prévision du trafic constitue un problème complexe en raison de la difficulté à modéliser conjointement les dépendances spatio-temporelles à différentes échelles. Récemment, plusieurs modèles hybrides basés sur l'apprentissage profond ont été développés afin de capturer ces dépendances. Ces approches exploitent généralement des réseaux de neurones convolutifs ou des réseaux de neurones de type graphe (GNN) pour modéliser les dépendances spatiales, tout en s'appuyant sur des réseaux de neurones récurrents (RNN) pour apprendre les dépendances temporelles. Toutefois, les RNN ne sont capables de capturer que l'information séquentielle dans les séries temporelles, sans pouvoir modéliser efficacement leur périodicité (par exemple, les motifs hebdomadaires). En outre, les RNN sont difficiles à paralléliser, ce qui rend l'entraînement et la prédiction moins efficaces. Dans ce travail, nous proposons une nouvelle architecture d'apprentissage profond appelée Traffic Transformer, conçue pour capturer à la fois la continuité et la périodicité des séries temporelles, tout en modélisant les dépendances spatiales. Notre approche s'inspire du cadre Transformer développé par Google pour la traduction automatique. Nous menons des expériences approfondies sur deux jeux de données réelles de trafic, et les résultats montrent que notre modèle surpasse significativement les modèles de référence.