HyperAIHyperAI

Command Palette

Search for a command to run...

Empirische Bewertung von Gated Recurrent Neural Networks im sequenziellen Modellieren

Junyoung Chung; Caglar Gulcehre; KyungHyun Cho; Yoshua Bengio

Zusammenfassung

In dieser Arbeit vergleichen wir verschiedene Arten von rekurrenten Einheiten in rekurrenten neuronalen Netzen (RNNs). Insbesondere konzentrieren wir uns auf fortschrittlichere Einheiten, die ein Gating-Mechanismus implementieren, wie z.B. Long Short-Term Memory (LSTM)-Einheiten und die kürzlich vorgeschlagenen Gated Recurrent Units (GRUs). Wir bewerten diese rekurrenten Einheiten anhand der Aufgaben des polyphonen Musikmodellierens und des Sprachsignalmodellierens. Unsere Experimente zeigten, dass diese fortschrittlichen rekurrenten Einheiten tatsächlich besser sind als traditionellere rekurrente Einheiten wie tanh-Einheiten. Zudem stellten wir fest, dass GRUs sich den LSTMs vergleichbar erweisen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Empirische Bewertung von Gated Recurrent Neural Networks im sequenziellen Modellieren | Paper | HyperAI