HyperAIHyperAI
il y a 17 jours

Les convolutions pointwise regroupées réduisent le nombre de paramètres dans les réseaux de neurones convolutionnels

{Domenec Puig, Hatem Rashwan, Mohamed Abdel-Nasser, Santiago Romani, Joao Paulo Schwarz Schuler}
Résumé

Dans les réseaux de neurones convolutifs profonds (DCNN), le nombre de paramètres dans les convolutions ponctuelles croît rapidement en raison de la multiplication entre le nombre de filtres et le nombre de canaux d’entrée provenant de la couche précédente. Pour contrer cette croissance, nous proposons une nouvelle technique permettant de rendre les convolutions ponctuelles plus efficaces en termes de paramètres, en utilisant une architecture parallèle à branches, où chaque branche contient un groupe de filtres et traite une fraction des canaux d’entrée. Afin d’éviter de compromettre la capacité d’apprentissage des DCNN, nous introduisons une stratégie d’interleuvage des sorties des filtres provenant de branches distinctes au niveau des couches intermédiaires des convolutions ponctuelles successives. Pour démontrer l’efficacité de la méthode proposée, nous l’appliquons à plusieurs architectures de pointe en matière de DCNN, à savoir EfficientNet, DenseNet-BC L100, MobileNet et MobileNet V3 Large. Les performances de ces réseaux, avec et sans la méthode proposée, sont comparées sur les jeux de données CIFAR-10, CIFAR-100, Cropped-PlantDoc et Oxford-IIIT Pet. Les résultats expérimentaux montrent que les DCNN intégrant la technique proposée, lorsqu’ils sont entraînés à partir de zéro, atteignent des précisions de test comparables à celles des architectures originales EfficientNet et MobileNet V3 Large, tout en réduisant jusqu’à 90 % le nombre de paramètres et jusqu’à 63 % le nombre d’opérations à virgule flottante.