Autoencodeurs Clairsemés
Les autoencodeurs clairsemés (SAE) sont un algorithme d'apprentissage automatique non supervisé qui entraîne un modèle en calculant l'erreur entre la sortie de l'autoencodeur et l'entrée d'origine et en ajustant en continu les paramètres de l'autoencodeur. Les autoencodeurs peuvent être utilisés pour compresser les informations d'entrée et extraire des fonctionnalités d'entrée utiles.
L'autoencodeur a été proposé à l'origine sur la base de l'idée de réduction de dimensionnalité. Cependant, lorsque le nombre de nœuds cachés est supérieur au nombre de nœuds d'entrée, l'autoencodeur perd la capacité d'apprendre automatiquement les caractéristiques des échantillons. À ce stade, il est nécessaire d’imposer certaines contraintes aux nœuds cachés. Similairement au point de départ de l'autoencodeur de débruitage, les expressions à haute dimension et clairsemées sont bonnes. Il est donc proposé d’imposer certaines limites de parcimonie aux nœuds cachés. L'autoencodeur clairsemé est obtenu en ajoutant certaines contraintes de parcimonie sur la base de l'autoencodeur traditionnel. Cette rareté concerne les neurones de la couche cachée de l'autoencodeur. En supprimant la plupart des sorties des neurones de la couche cachée, le réseau obtient un effet clairsemé.