Gated Recurrent-Einheit
Die Gated Recurrent Unit (GRU) ist eine Variante des von Cho et al. vorgeschlagenen rekurrierenden neuronalen Netzwerks (RNN). im Jahr 2014.Empirische Evaluation von Gated Recurrent Neural Networks zur Sequenzmodellierung". GRU wurde entwickelt, um das Problem des verschwindenden Gradienten zu lösen, das bei herkömmlichen RNNs bei der Verarbeitung langer Sequenzdaten auftritt. Es steuert den Informationsfluss durch die Einführung von Update-Gates und Reset-Gates, um langfristige Abhängigkeiten in Zeitreihen besser zu erfassen.