CNN Filter DB : Une investigation empirique des filtres convolutionnels entraînés

Actuellement, de nombreuses questions théoriques ainsi que pratiques concernant la transférabilité et la robustesse des réseaux de neurones convolutifs (CNN) restent sans réponse. Bien que des efforts de recherche continuent d’aborder ces problèmes sous divers angles, dans la plupart des cas liés à la vision par ordinateur, ces approches peuvent être généralisées pour étudier les effets des décalages de distribution dans les données d’images. Dans ce contexte, nous proposons d’analyser les décalages observés dans les poids appris des CNN entraînés. Plus précisément, nous nous concentrons sur les propriétés des distributions des noyaux de filtres convolutifs 3×3 largement utilisés. Nous avons collecté et mis publiquement à disposition une base de données contenant plus de 1,4 milliard de filtres provenant de centaines de CNN entraînés, utilisant une large variété de jeux de données, d’architectures et de tâches de vision. Dans une première application de cette base de données, nous démontrons des propriétés hautement pertinentes pour les applications pratiques des nombreux modèles pré-entraînés disponibles publiquement : I) Nous analysons les décalages de distribution (ou leur absence) entre les filtres entraînés selon différentes dimensions de méta-paramètres, tels que la catégorie visuelle du jeu de données, la tâche, l’architecture ou la profondeur de couche. À partir de ces résultats, nous concluons que l’entraînement préalable d’un modèle peut réussir sur des jeux de données arbitraires, à condition qu’ils satisfont des critères de taille et de variance. II) Nous montrons que de nombreux modèles pré-entraînés contiennent des filtres dégénérés, ce qui les rend moins robustes et moins adaptés à l’ajustement fin (fine-tuning) sur des applications cibles. Site web des données et du projet : https://github.com/paulgavrikov/cnn-filter-db