Command Palette
Search for a command to run...
Legendre Memory Units: Kontinuierliche Darstellung in rekurrenten neuronalen Netzen
Legendre Memory Units: Kontinuierliche Darstellung in rekurrenten neuronalen Netzen
Ivana Kajić Chris Eliasmith Aaron Voelker
Zusammenfassung
Wir schlagen eine neuartige Speichereinheit für rekurrente neuronale Netze vor, die Informationen über lange Zeitfenster dynamisch unter Verwendung vergleichsweise geringer Ressourcen aufrechterhält. Die Legendre Memory Unit (LMU) ist mathematisch so abgeleitet, dass sie die kontinuierliche Vergangenheit orthogonalisiert – dies geschieht durch die Lösung von d gekoppelten gewöhnlichen Differentialgleichungen (ODEs), deren Phasenraum über die Legendre-Polynome bis zum Grad d−1 linear auf verschiebbare Zeitfenster abgebildet wird. Die Rückpropagation durch LMUs übertrifft bei einer chaotischen Zeitreihenvorhersageaufgabe die Leistung gleichgroßer LSTMs, steigert die Speicherkapazität um zwei Größenordnungen und reduziert signifikant Trainings- und Inferenzzeiten. LMUs können zeitliche Abhängigkeiten über bis zu 100000 Zeitschritte effizient verarbeiten, rasch konvergieren und verwenden wenige interne Zustandsvariablen, um komplexe Funktionen über lange Zeitfenster zu lernen – sie erreichen dabei eine Leistung, die die derzeitigen State-of-the-Art-Verfahren bei rekurrenten neuronalen Netzen bei permutiertem sequentiellem MNIST übertrifft. Diese Ergebnisse beruhen auf der Fähigkeit des Netzwerks, skaleninvariante Merkmale unabhängig von der Schrittweite zu lernen. Die Rückpropagation durch den ODE-Löser ermöglicht es jeder Schicht, ihre interne Zeitschrittweite anzupassen, wodurch das Netzwerk zeitliche Skalen, die für die jeweilige Aufgabe relevant sind, erlernen kann. Wir zeigen, dass LMU-Speichereinheiten mit m rekurrent miteinander verbundenen Poisson-Spiking-Neuronen implementiert werden können, wobei sowohl Zeit- als auch Speicherbedarf O(m) betragen, während der Fehler sich wie O(d/m) skaliert. Schließlich diskutieren wir Implementierungen von LMUs auf analoger und digitaler neuromorpher Hardware.