HyperAIHyperAI
vor 2 Monaten

Empirische Bewertung von Gated Recurrent Neural Networks im sequenziellen Modellieren

Junyoung Chung; Caglar Gulcehre; KyungHyun Cho; Yoshua Bengio
Empirische Bewertung von Gated Recurrent Neural Networks im sequenziellen Modellieren
Abstract

In dieser Arbeit vergleichen wir verschiedene Arten von rekurrenten Einheiten in rekurrenten neuronalen Netzen (RNNs). Insbesondere konzentrieren wir uns auf fortschrittlichere Einheiten, die ein Gating-Mechanismus implementieren, wie z.B. Long Short-Term Memory (LSTM)-Einheiten und die kürzlich vorgeschlagenen Gated Recurrent Units (GRUs). Wir bewerten diese rekurrenten Einheiten anhand der Aufgaben des polyphonen Musikmodellierens und des Sprachsignalmodellierens. Unsere Experimente zeigten, dass diese fortschrittlichen rekurrenten Einheiten tatsächlich besser sind als traditionellere rekurrente Einheiten wie tanh-Einheiten. Zudem stellten wir fest, dass GRUs sich den LSTMs vergleichbar erweisen.

Empirische Bewertung von Gated Recurrent Neural Networks im sequenziellen Modellieren | Neueste Forschungsarbeiten | HyperAI