HyperAI

Perzeptron

PerzeptronEs handelt sich um ein binäres lineares Klassifizierungsmodell, das als einfache Form eines Feedforward-Neuronalen Netzwerks angesehen werden kann. Es wurde 1957 von Frank Rosenblatt vorgeschlagen. Es gibt den Merkmalsvektor der Instanz ein und gibt die Kategorie der Instanz aus.

Als linearer Klassifikator kann es als das einfachste vorwärtsgerichtete künstliche neuronale Netzwerk angesehen werden. Trotz seiner einfachen Struktur kann es lernen und komplexe Probleme bewältigen. Sein Hauptnachteil besteht darin, dass es keine linearen untrennbaren Probleme verarbeiten kann.

Perzeptron-Definition

Das Perzeptron verwendet Merkmalsvektoren, um ein Feedforward-Neuralnetzwerk darzustellen. Dabei handelt es sich um einen binären Klassifikator, der eine Matrix wie x auf einen Ausgabewert f(x) abbildet.

Dabei ist w eine reelle Zahl, die den Gewichtsvektor darstellt, w · x ist das Skalarprodukt und b ist die Bias-Konstante.

f(x) wird verwendet, um x zu klassifizieren und zu bestimmen, ob es positiv oder negativ ist. Dies ist ein Problem der binären Klassifizierung. Wenn b ein negativer Wert ist, muss der gewichtete Eingabewert einen positiven Wert größer als -b ergeben, damit das Klassifizierungsneuron größer als der Schwellenwert 0 ist. Aus räumlicher Sicht wird die Verzerrung die Position der Entscheidungsgrenze ändern.

Perceptron-Lernstrategie

Kern: Minimierung der Verlustfunktion

Wenn der Trainingssatz trennbar ist, besteht das Lernziel des Perzeptrons darin, eine trennende Hyperebene zu finden, die die positiven und negativen Instanzpunkte im Trainingssatz vollständig trennen kann. Um die Perzeptron-Modellparameter w und b zu bestimmen, wird im Allgemeinen eine Verlustfunktion verwendet und die Verlustfunktion minimiert.

Verwandte Wörter: mehrschichtiges Perzeptron, neuronales Netzwerk