HyperAI

Perceptron

PerceptronIl s’agit d’un modèle de classification linéaire binaire, qui peut être considéré comme une forme simple de réseau neuronal à propagation directe. Il a été proposé par Frank Rosenblatt en 1957. Il entre le vecteur de caractéristiques de l'instance et génère la catégorie de l'instance.

En tant que classificateur linéaire, il peut être considéré comme le réseau neuronal artificiel direct le plus simple. Malgré sa structure simple, il peut néanmoins apprendre et gérer des problèmes complexes. Son principal inconvénient est qu’il ne peut pas gérer les problèmes linéaires inséparables.

Définition de Perceptron

Le perceptron utilise des vecteurs de caractéristiques pour représenter un réseau neuronal à propagation directe, qui est un classificateur binaire qui mappe une matrice telle que x à une valeur de sortie f(x).

Ici, w est un nombre réel représentant le vecteur de poids, w · x est le produit scalaire et b est la constante de biais.

f(x) est utilisé pour classer x afin de déterminer s'il est positif ou négatif. Il s’agit d’un problème de classification binaire. Si b est une valeur négative, alors la valeur d'entrée pondérée doit produire une valeur positive supérieure à -b afin de rendre le neurone de classification supérieur au seuil de 0. D'un point de vue spatial, le biais modifiera la position de la limite de décision.

Stratégie d'apprentissage du Perceptron

Noyau : Minimiser la fonction de perte

Si l'ensemble d'entraînement est séparable, l'objectif d'apprentissage du perceptron est de trouver un hyperplan de séparation capable de séparer complètement les points d'instance positifs et les points d'instance négatifs dans l'ensemble d'entraînement. Afin de déterminer les paramètres du modèle de perceptron w et b, une fonction de perte est généralement utilisée et la fonction de perte est minimisée.

Mots apparentés : perceptron multicouche, réseau neuronal