HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen von Langzeitzusammenhängen in unregelmäßig abgetasteten Zeitreihen

Mathias Lechner Ramin Hasani

Zusammenfassung

Rekurrente Neuronale Netze (RNNs) mit kontinuierlichen verborgenen Zuständen sind eine natürliche Wahl für die Modellierung unregelmäßig abgetasteter Zeitreihen. Diese Modelle haben jedoch Schwierigkeiten, wenn die Eingangsdaten langfristige Abhängigkeiten aufweisen. Wir beweisen, dass ähnlich wie bei standardmäßigen RNNs der zugrunde liegende Grund für dieses Problem das Verschwinden oder Explodieren des Gradienten während des Trainings ist. Dieses Phänomen wird durch die gewöhnliche Differentialgleichung (ODE) Darstellung des verborgenen Zustands ausgedrückt, unabhängig von der Wahl des ODE-Solvers. Wir bieten eine Lösung, indem wir einen neuen Algorithmus basierend auf dem Long Short-Term Memory (LSTM)-Modell entwickeln, der dessen Speicher von seinem zeitkontinuierlichen Zustand trennt. Auf diese Weise kodieren wir einen zeitkontinuierlichen dynamischen Fluss innerhalb des RNNs, wodurch es auf Eingaben reagieren kann, die zu beliebigen Zeitverzögerungen eintreffen, und gleichzeitig eine konstante Fehlerfortpflanzung entlang des Speicherpfads sicherstellen. Wir nennen diese RNN-Modelle ODE-LSTMs. Experimentelle Ergebnisse zeigen, dass ODE-LSTMs fortgeschrittene RNN-basierte Konkurrenten bei nicht-uniform abgetasteten Daten mit langfristigen Abhängigkeiten übertrumpfen. Der gesamte Code und die Daten sind unter https://github.com/mlech26l/ode-lstms verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp