HyperAIHyperAI
il y a 2 mois

Échelle de la Transformation de Diffusion : Réseaux Hybrides Profonds

Edouard Oyallon; Eugene Belilovsky; Sergey Zagoruyko
Échelle de la Transformation de Diffusion : Réseaux Hybrides Profonds
Résumé

Nous utilisons le réseau de diffusion comme une initialisation générique et fixe des premières couches d'un réseau profond hybride supervisé. Nous montrons que les premières couches n'ont pas nécessairement besoin d'être apprises, fournissant les meilleurs résultats à ce jour avec des représentations pré-définies tout en étant compétitives avec les CNN profonds. L'utilisation d'une cascade peu profonde de convolutions 1 x 1, qui encode des coefficients de diffusion correspondant à des fenêtres spatiales de très petites tailles, permet d'obtenir la précision d'AlexNet sur l'Imagenet ILSVRC2012. Nous démontrons que cette encodage local apprend explicitement l'invariance par rapport aux rotations. En combinant les réseaux de diffusion avec un ResNet moderne, nous atteignons une erreur top 5 unique de 11,4 % sur Imagenet ILSVRC2012, comparable à l'architecture ResNet-18, tout en utilisant seulement 10 couches. Nous constatons également que les architectures hybrides peuvent offrir d'excellentes performances dans le régime de petits échantillons, surpassant leurs homologues end-to-end grâce à leur capacité à intégrer des a priori géométriques. Nous illustrons cela sur des sous-ensembles du jeu de données CIFAR-10 et sur le jeu de données STL-10.

Échelle de la Transformation de Diffusion : Réseaux Hybrides Profonds | Articles de recherche récents | HyperAI