HyperAIHyperAI

Command Palette

Search for a command to run...

UnICORNN: Ein rekurrentes Modell zur Lernung sehr langer zeitlicher Abhängigkeiten

T. Konstantin Rusch Siddhartha Mishra

Zusammenfassung

Die Gestaltung von rekurrenten Neuronalen Netzen (RNNs), um sequentielle Eingaben mit langfristigen Abhängigkeiten genauer zu verarbeiten, ist aufgrund des Problems der explodierenden und verschwindenden Gradienten sehr herausfordernd. Um dieses Problem zu überwinden, schlagen wir eine neuartige RNN-Architektur vor, die auf einer strukturerhaltenden Diskretisierung eines Hamilton-Systems zweiter Ordnung partieller Differentialgleichungen basiert, das Oszillatornetzwerke modelliert. Das resultierende RNN ist schnell, zeitlich invertierbar, speichereffizient und wir leiten strenge Schranken für die Gradienten des verborgenen Zustands her, um den Beweis für die Milderung des Problems der explodierenden und verschwindenden Gradienten zu führen. Eine Reihe von Experimenten wird präsentiert, um zu zeigen, dass das vorgeschlagene RNN in verschiedenen Lernaufgaben mit (sehr) langfristigen Abhängigkeiten den Stand der Technik darstellt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp