Un schéma amélioré pour réduire la complexité des convolutions ponctuelles dans les CNNs pour la classification d’images basé sur des filtres groupés entrelacés sans contraintes de divisibilité
Dans la classification d’images à l’aide des réseaux de neurones convolutifs profonds (DCNN), le nombre de paramètres dans les convolutions pointuelles augmente rapidement en raison du produit du nombre de filtres par le nombre de canaux d’entrée provenant de la couche précédente. Des études antérieures ont démontré qu’un sous-réseau peut remplacer les couches de convolution pointuelle avec un nombre significativement réduit de paramètres et d’opérations à virgule flottante, tout en préservant la capacité d’apprentissage. Dans cet article, nous proposons une amélioration de la réduction de la complexité des convolutions pointuelles dans les DCNN pour la classification d’images, basée sur des filtres groupés entrelacés, sans contrainte de divisibilité. Le schéma proposé utilise des convolutions pointuelles groupées, où chaque groupe traite une fraction des canaux d’entrée. Il nécessite un hyperparamètre Ch, correspondant au nombre de canaux par groupe. Le sous-réseau proposé comporte deux couches de convolution consécutives K et L, reliées par une couche d’entrelacement au milieu, puis sommées à la fin. Le nombre de groupes et le nombre de filtres par groupe pour les couches K et L sont déterminés par une division exacte du nombre initial de canaux d’entrée et de filtres par Ch. Si cette division n’était pas exacte, la couche initiale ne pouvait pas être remplacée. Dans cet article, nous améliorons l’algorithme antérieur en permettant la duplication des canaux d’entrée et en autorisant les groupes à avoir un nombre différent de filtres afin de gérer les cas de divisibilité non exacte. Ainsi, le schéma proposé réduit davantage le nombre d’opérations à virgule flottante (de 11 %) et le nombre de paramètres entraînables (de 10 %) par rapport à la méthode précédente. Nous avons testé notre optimisation sur une architecture de base EfficientNet-B0, et réalisé des tests de classification sur les jeux de données CIFAR-10, Histologie du cancer colorectal et Paludisme. Pour chaque jeu de données, notre optimisation permet une réduction de 76 %, 89 % et 91 % du nombre de paramètres entraînables d’EfficientNet-B0, tout en préservant son taux d’exactitude en classification sur les données de test.