HyperAIHyperAI
vor 17 Tagen

Wie Merkmale nutzen: Parallele Serien-Embedding für die mehrdimensionale Zeitreihenprognose mit Transformer

{Zonglin Lyu, Xuande Feng}
Abstract

Die Prognose von Zeitreihen ist ein faszinierendes und von großer Bedeutung gebliebenes mathematisches Thema. Theorien und Anwendungen in verwandten Bereichen wurden bereits über Jahrzehnte hinweg erforscht, und in den letzten Jahren hat das tiefe Lernen zu zuverlässigen Werkzeugen beigetragen. Der Transformer, der in der Lage ist, längere Abhängigkeiten in Sequenzen zu erfassen, wurde als leistungsstarkes Architekturprinzip für die Zeitreihenprognose genutzt. Während bestehende Arbeiten hauptsächlich zur Überwindung der Speicherbeschränkungen des Transformers beigetragen haben, bleibt die effektive Nutzung mehrdimensionaler Zeitreihen bisher kaum beachtet. In dieser Arbeit wird eine neuartige Architektur vorgestellt, die einen primären Transformer nutzt, um mehrdimensionale Zeitreihen vorherzusagen. Unsere vorgeschlagene Architektur weist zwei wesentliche Vorteile auf. Erstens ermöglicht sie eine präzise Vorhersage mehrdimensionaler Zeitreihen, unabhängig von kürzeren oder längeren Sequenzlängen und Vorherschritten. Wir testen unser Modell anhand verschiedener Baseline-Architekturen auf realen Datensätzen und zeigen, dass unser Modell deren Leistung signifikant verbessert. Zweitens lässt sich die Architektur problemlos in Transformer-basierte Varianten integrieren.