Perceptron
PerceptronIl s’agit d’un modèle de classification linéaire binaire, qui peut être considéré comme une forme simple de réseau neuronal à propagation directe. Il a été proposé par Frank Rosenblatt en 1957. Il entre le vecteur de caractéristiques de l'instance et génère la catégorie de l'instance.
En tant que classificateur linéaire, il peut être considéré comme le réseau neuronal artificiel direct le plus simple. Malgré sa structure simple, il peut néanmoins apprendre et gérer des problèmes complexes. Son principal inconvénient est qu’il ne peut pas gérer les problèmes linéaires inséparables.
Définition de Perceptron
Le perceptron utilise des vecteurs de caractéristiques pour représenter un réseau neuronal à propagation directe, qui est un classificateur binaire qui mappe une matrice telle que x à une valeur de sortie f(x).
Ici, w est un nombre réel représentant le vecteur de poids, w · x est le produit scalaire et b est la constante de biais.
f(x) est utilisé pour classer x afin de déterminer s'il est positif ou négatif. Il s’agit d’un problème de classification binaire. Si b est une valeur négative, alors la valeur d'entrée pondérée doit produire une valeur positive supérieure à -b afin de rendre le neurone de classification supérieur au seuil de 0. D'un point de vue spatial, le biais modifiera la position de la limite de décision.
Stratégie d'apprentissage du Perceptron
Noyau : Minimiser la fonction de perte
Si l'ensemble d'entraînement est séparable, l'objectif d'apprentissage du perceptron est de trouver un hyperplan de séparation capable de séparer complètement les points d'instance positifs et les points d'instance négatifs dans l'ensemble d'entraînement. Afin de déterminer les paramètres du modèle de perceptron w et b, une fonction de perte est généralement utilisée et la fonction de perte est minimisée.