HyperAIHyperAI

Command Palette

Search for a command to run...

Gated Orthogonal Recurrent Units: Über das Lernen, zu vergessen

Li Jing Caglar Gulcehre John Peurifoy Yichen Shen Max Tegmark Marin Soljačić Yoshua Bengio

Zusammenfassung

Wir präsentieren ein neues Modell auf Basis von rekurrenten neuronalen Netzen (RNN), das die Merkfähigkeit von unitären RNNs mit der Fähigkeit von geregten RNNs kombiniert, redundante oder irrelevante Informationen in ihrem Gedächtnis effektiv zu vergessen. Dies erreichen wir, indem wir unitäre RNNs mit einem Gating-Mechanismus erweitern. Unser Modell ist in der Lage, LSTMs, GRUs und unitäre RNNs bei mehreren Benchmark-Aufgaben mit langfristigen Abhängigkeiten zu übertreffen. In empirischen Studien zeigen wir sowohl, dass orthogonale/unitäre RNNs die Fähigkeit zum Vergessen fehlen, als auch, dass GORU in der Lage ist, langfristige Abhängigkeiten zu speichern, während es gleichzeitig irrelevante Informationen vergisst. Dies spielt eine wichtige Rolle in rekurrenten neuronalen Netzen. Wir liefern wettbewerbsfähige Ergebnisse zusammen mit einer Analyse unseres Modells für viele natürliche sequentielle Aufgaben, darunter bAbI-Fragebeantwortung, Vorhersage des Sprachspektrums von TIMIT, Penn TreeBank und synthetische Aufgaben, die langfristige Abhängigkeiten beinhalten wie algorithmische Aufgaben, Klammerprobleme, Entrauschung und Kopieraufgaben.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp