HyperAI

Perceptron Multicouche

Le perceptron multicouche (MLP) est un réseau neuronal artificiel à propagation directe qui mappe un ensemble de vecteurs d'entrée à un ensemble de vecteurs de sortie. Il peut être considéré comme un graphe orienté constitué de plusieurs couches de nœuds, chacune étant entièrement connectée à la couche suivante. À l’exception du nœud d’entrée, chaque nœud est un neurone (ou unité de traitement) doté d’une fonction d’activation non linéaire. MLP est une généralisation du perceptron, qui surmonte la faiblesse du perceptron qui est qu'il ne peut pas reconnaître des données linéairement inséparables.

Le perceptron multicouche en tant que concept spécifique est né après l'introduction de l'algorithme de rétropropagation, qui permet de former des réseaux multicouches. L'algorithme de rétropropagation a été décrit pour la première fois dans l'articleApprentissage des représentations par rétropropagation des erreursL'algorithme de rétropropagation est décrit en détail dans un article de 1986 de David E. Rumelhart, Geoffrey E. Hinton et Ronald J. Williams, qui montre comment l'utiliser pour entraîner des perceptrons multicouches.

Bien que les premiers concepts et prototypes de perceptrons multicouches existaient auparavant, cet article était un document important qui reliait explicitement l'algorithme de rétropropagation à la structure du réseau multicouche et était largement reconnu dans le domaine de la recherche sur les réseaux neuronaux. Jusqu’à présent, les réseaux multicouches n’étaient pas largement utilisés en raison du manque de méthodes de formation efficaces.