HyperAI

Mehrschichtiges Perzeptron

Multilayer Perceptron (MLP) ist ein künstliches neuronales Feedforward-Netzwerk, das eine Reihe von Eingabevektoren auf eine Reihe von Ausgabevektoren abbildet. Es kann als gerichteter Graph betrachtet werden, der aus mehreren Knotenschichten besteht, von denen jede vollständig mit der nächsten Schicht verbunden ist. Mit Ausnahme des Eingabeknotens ist jeder Knoten ein Neuron (oder eine Verarbeitungseinheit) mit einer nichtlinearen Aktivierungsfunktion. MLP ist eine Verallgemeinerung des Perzeptrons, die die Schwäche des Perzeptrons überwindet, dass es keine linear untrennbaren Daten erkennen kann.

Das mehrschichtige Perzeptron als spezifisches Konzept entstand nach der Einführung des Backpropagation-Algorithmus, der das Trainieren mehrschichtiger Netzwerke ermöglicht. Der Backpropagation-Algorithmus wurde erstmals in der ArbeitLernen von Darstellungen durch Rückpropagieren von FehlernDer Backpropagation-Algorithmus wird in einem Artikel von David E. Rumelhart, Geoffrey E. Hinton und Ronald J. Williams aus dem Jahr 1986 ausführlich beschrieben und zeigt, wie er zum Trainieren mehrschichtiger Perzeptronen verwendet werden kann.

Obwohl es bereits frühere Konzepte und Prototypen mehrschichtiger Perzeptronen gab, handelte es sich bei diesem Artikel um ein wichtiges Dokument, das den Backpropagation-Algorithmus explizit mit der mehrschichtigen Netzwerkstruktur verknüpfte und auf dem Gebiet der neuronalen Netzwerkforschung breite Anerkennung fand. Da es bisher keine effektiven Trainingsmethoden gab, waren mehrschichtige Netzwerke nicht weit verbreitet.