HyperAIHyperAI

Command Palette

Search for a command to run...

Stufenweises Lernen von Rekurrenten Neuronalen Netzen

Ziv Aharoni Gal Rattner Haim Permuter

Zusammenfassung

Recurrent Neural Networks (RNNs) erzielen in vielen sequenzbasierten Modellierungsaufgaben standesübliche Ergebnisse. Allerdings sind RNNs schwierig zu trainieren und neigen dazu, an Überanpassung (Overfitting) zu leiden. Inspiriert durch die Datenverarbeitungsungleichung (Data Processing Inequality, DPI), formulieren wir das mehrschichtige Netzwerk als Markov-Kette und führen eine Trainingsmethode ein, die das schrittweise Trainieren des Netzwerks und das schichtweise Gradientenclipping umfasst. Wir stellten fest, dass die Anwendung unserer Methoden in Kombination mit bereits eingeführten Regularisierungs- und Optimierungsmethoden zu Verbesserungen in standesüblichen Architekturen führte, die in der Sprachmodellierung eingesetzt werden.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp