HyperAIHyperAI

Command Palette

Search for a command to run...

Rekurrentes Neuronales Netzwerk Regularisierung

Wojciech Zaremba* Ilya Sutskever Oriol Vinyals

Zusammenfassung

Wir präsentieren eine einfache Regularisierungstechnik für Rekurrente Neuronale Netze (RNNs) mit Long Short-Term Memory (LSTM)-Einheiten. Dropout, die erfolgreichste Technik zur Regularisierung von neuronalen Netzen, funktioniert bei RNNs und LSTMs nicht gut. In dieser Arbeit zeigen wir, wie Dropout korrekt auf LSTMs angewendet werden kann, und demonstrieren, dass es das Overfitting bei einer Vielzahl von Aufgaben erheblich reduziert. Diese Aufgaben umfassen Sprachmodelle, Spracherkennung, Bildunterschriftenerstellung und maschinelle Übersetzung.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp