Traffic Transformer: Erfassung der Kontinuität und Periodizität von Zeitreihen für die Verkehrsprognose
Die Verkehrsprognose stellt aufgrund der Komplexität der gleichzeitigen Modellierung räumlich-zeitlicher Abhängigkeiten auf verschiedenen Skalen eine herausfordernde Aufgabe dar. In jüngster Zeit wurden mehrere hybride tiefgreifende Lernmodelle entwickelt, um solche Abhängigkeiten zu erfassen. Diese Ansätze nutzen typischerweise konvolutionale Neuronale Netze oder Graphen-Neuronale Netze (GNNs), um räumliche Abhängigkeiten zu modellieren, und stützen sich auf rekurrente Neuronale Netze (RNNs), um zeitliche Abhängigkeiten zu lernen. Allerdings können RNNs lediglich sequenzielle Informationen in Zeitreihen erfassen, sind jedoch nicht in der Lage, deren Periodizität (z. B. wöchentliche Muster) zu modellieren. Zudem sind RNNs schwer parallelisierbar, was die Trainings- und Vorhersageeffizienz beeinträchtigt. In dieser Arbeit präsentieren wir eine neuartige tiefgreifende Lernarchitektur namens Traffic Transformer, die sowohl die Kontinuität als auch die Periodizität von Zeitreihen erfassen und räumliche Abhängigkeiten modellieren kann. Unsere Arbeit greift die Ideen des Transformer-Rahmens von Google für die maschinelle Übersetzung auf. Wir führen umfangreiche Experimente auf zwei realen Verkehrsdatensätzen durch, und die Ergebnisse zeigen, dass unser Modell die Baseline-Modelle deutlich übertrifft.