HyperAIHyperAI

Command Palette

Search for a command to run...

Architekturkomplexitätsmaße von rekurrenten neuronalen Netzen

Saizheng Zhang Yuhuai Wu Tong Che Zhouhan Lin Roland Memisevic Ruslan Salakhutdinov Yoshua Bengio

Zusammenfassung

In dieser Arbeit untersuchen wir systematisch die Verbindungsarchitekturen von rekurrenten Neuronalen Netzen (RNNs). Unser Hauptbeitrag besteht aus zwei Aspekten: Erstens präsentieren wir ein strenges graphentheoretisches Framework, das die Verbindungsarchitekturen von RNNs im Allgemeinen beschreibt. Zweitens schlagen wir drei Architekturkomplexitätsmaße für RNNs vor: (a) die rekurrente Tiefe, die die zeitliche Nichtlinearität des RNNs erfasst, (b) die feedforward-Tiefe, die die lokale Eingabe-Ausgabe-Nichtlinearität erfasst (ähnlich der „Tiefe“ in feedforward Neuronalen Netzen (FNNs)), und (c) den rekurrenten Skip-Koeffizienten, der beschreibt, wie schnell Informationen über die Zeit hinweg verbreitet werden. Wir beweisen streng die Existenz und Berechenbarkeit jedes Maßes. Unsere experimentellen Ergebnisse zeigen, dass RNNs von einer größeren rekurrenten Tiefe und feedforward-Tiefe profitieren könnten. Darüber hinaus demonstrieren wir, dass eine Erhöhung des rekurrenten Skip-Koeffizienten bei Problemen mit langfristigen Abhängigkeiten Leistungsverbesserungen bietet.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp