Command Palette
Search for a command to run...
Deep-Energy : Formation non supervisée des réseaux de neurones profonds
Deep-Energy : Formation non supervisée des réseaux de neurones profonds
Alona Golts Daniel Freedman Michael Elad
Résumé
Le succès de l'apprentissage profond s'est en grande partie dû à la disponibilité de grands ensembles de données annotées. Par conséquent, une des principales goulots d'étranglement dans les pipelines actuels d'apprentissage est le temps considérable nécessaire pour l'annotation manuelle des données. Dans les scénarios où ces paires entrée-sortie ne peuvent pas être collectées, la simulation est souvent utilisée à la place, ce qui entraîne un décalage de domaine entre les données synthétisées et celles du monde réel. Ce travail propose une alternative non supervisée qui repose sur la disponibilité de fonctions énergétiques spécifiques à la tâche, remplaçant ainsi la perte supervisée générique. On suppose que ces fonctions énergétiques conduisent au label souhaité en tant que minimisateur lorsqu'on leur fournit une entrée. L'approche proposée, appelée « Deep Energy », forme un Réseau Neuronal Profond (DNN) pour approximer cette minimisation pour toute entrée choisie. Une fois formé, un calcul de propagation avant simple et rapide fournit le label inféré. Cette approche nous permet d'effectuer une formation non supervisée des DNNs avec uniquement des entrées du monde réel, sans nécessiter ni des labels annotés manuellement, ni des données créées synthétiquement. Dans cet article, « Deep Energy » est illustré par trois tâches différentes : la segmentation guidée, le matting d'image et le débruitage d'une seule image, mettant en évidence sa généralité et son large champ d'application. Nos expériences montrent que la solution fournie par le réseau est souvent bien meilleure en qualité que celle obtenue par une minimisation directe de la fonction énergétique, suggérant qu'il y a une propriété régularisante supplémentaire dans notre schéma.