HyperAIHyperAI
il y a 2 mois

Apprentissage de filtres orientables pour des CNNs équivariants à la rotation

Maurice Weiler; Fred A. Hamprecht; Martin Storath
Apprentissage de filtres orientables pour des CNNs équivariants à la rotation
Résumé

Dans de nombreuses tâches d'apprentissage automatique, il est souhaitable que la prédiction d'un modèle se transforme de manière équivariante sous les transformations de son entrée. Les réseaux neuronaux convolutionnels (CNNs) mettent en œuvre l'équivariance translationnelle par construction ; pour d'autres transformations, ils sont cependant obligés d'apprendre la correspondance appropriée. Dans ce travail, nous développons des CNNs à filtres orientables (SFCNNs) qui atteignent une équivariance conjointe sous les translations et les rotations par conception. L'architecture proposée utilise des filtres orientables pour calculer efficacement des réponses dépendantes de l'orientation pour de nombreuses orientations sans subir les artefacts d'interpolation dus à la rotation des filtres. Nous utilisons des convolutions de groupe qui garantissent une correspondance équivariante. De plus, nous généralisons le schéma d'initialisation des poids de He aux filtres définis comme une combinaison linéaire d'un système de filtres atomiques. Des expériences numériques montrent une amélioration substantielle de la complexité échantillonnale avec un nombre croissant d'orientations filtrées échantillonnées et confirment que le réseau généralise les motifs appris sur les orientations. L'approche proposée atteint l'état de l'art sur le benchmark MNIST rotatif et sur le défi de segmentation EM 2D ISBI 2012.

Apprentissage de filtres orientables pour des CNNs équivariants à la rotation | Articles de recherche récents | HyperAI