Entkoppelte interpretierbare Darstellung für effiziente langfristige Zeitreihenprognose

Industry 5.0 bringt neue Herausforderungen für die Langzeit-Zeitreihen-Vorhersage (Long-term Time Series Forecasting, LTSF) mit sich, gekennzeichnet durch hochdimensionale, hochauflösende Daten und applikationskritische Szenarien mit hohen Konsequenzen. In diesem Kontext stellt die Entwicklung effizienter und interpretierbarer Modelle für LTSF eine zentrale Herausforderung dar. Bestehende tiefgreifende Lern- und lineare Modelle leiden oft unter übermäßiger Parameterkomplexität und mangelnder intuitiver Interpretierbarkeit. Um diese Probleme anzugehen, schlagen wir DiPE-Linear, ein entkoppeltes, interpretierbares und parameter-effizientes lineares Netzwerk, vor. DiPE-Linear integriert drei zeitliche Komponenten: Static Frequential Attention (SFA), Static Temporal Attention (STA) und Independent Frequential Mapping (IFM). Diese Komponenten wechseln zwischen der Lernphase im Frequenz- und Zeitbereich, um eine entkoppelte Interpretierbarkeit zu erreichen. Die dekomponierte Modellstruktur reduziert die Parameterkomplexität von quadratisch bei vollständig verbundenen Netzwerken (Fully Connected Networks, FCs) auf linear und die rechnerische Komplexität von quadratisch auf log-linear. Zudem verbessert eine Low-Rank Weight Sharing-Strategie die Fähigkeit des Modells, multivariate Zeitreihen zu verarbeiten. Trotz der Einschränkung auf einen Teilraum von FCs mit begrenztem Ausdruckskapazität erreicht DiPE-Linear in mehreren offenen und realen LTSF-Datensätzen vergleichbare oder überlegene Leistung gegenüber sowohl FCs als auch nichtlinearen Modellen, was die Wirksamkeit seiner sorgfältig entworfenen Architektur belegt. Die Kombination aus Effizienz, Genauigkeit und Interpretierbarkeit macht DiPE-Linear zu einem vielversprechenden Kandidaten für die Weiterentwicklung der LTSF sowohl in der Forschung als auch in praktischen Anwendungen. Der Quellcode ist unter https://github.com/wintertee/DiPE-Linear verfügbar.