Akkumulierte Fehlerrückpropagation
Der Cumulative Error Backpropagation Algorithmus ist eine Variante des Error Backpropagation Algorithmus, der auf der Aktualisierungsregel der Minimierung des kumulativen Fehlers basiert.
Fehler-Backpropagation Fehler-Backpropagation-Algorithmus (BP)
Der Algorithmus zur Rückausbreitung von Fehlern berechnet den Trainingsfehler mithilfe des Vorwärtsneuronalen Netzwerks und nutzt dann den Trainingsfehler, um auf die Neuronen der verborgenen Schicht zurückzuwirken. Dadurch werden die Verbindungsgewichte und der Schwellenwert jedes Neurons angepasst. Durch kontinuierliche Aktualisierung wird der Trainingsfehler minimiert.
Derzeit basiert das Training neuronaler Netzwerke größtenteils auf dem BP-Algorithmus, der nicht nur für mehrschichtige Feedforward-Neuronale Netzwerke, sondern auch für das Training rekursiver neuronaler Netzwerke usw. verwendet werden kann. Allerdings bezieht sich „BP-Netzwerk“ im Allgemeinen auf ein mehrschichtiges Feedforward-Neuronales Netzwerk, das mit dem BP-Algorithmus trainiert wurde.
Arbeitsablauf des BP-Algorithmus
- Das Eingabebeispiel wird dem Eingabeneuron bereitgestellt, das das Signal Schicht für Schicht weiterleitet, bis die Ausgabeschicht das Ergebnis liefert.
- Berechnen Sie den Fehler der Ausgabeschicht und leiten Sie dann den inversen Fehler an die Neuronen der verborgenen Schicht weiter
- Passen Sie die Verbindungsgewichte und Schwellenwerte entsprechend den Fehlern der Neuronen der verborgenen Schicht an
Feedforward-Neuronales Netzwerk (FP)
Das Feedforward-Neuralnetzwerk kann als Kombination mehrerer logistischer Regressionen betrachtet werden, mit der Ausnahme, dass die Ergebnisse direkt durch Neuronen der verborgenen Schicht erhalten werden können. Seine Kostenfunktion ähnelt der logistischen Funktion, mit der Ausnahme, dass sie über verschiedene Kategorien summieren muss.