LR-Net : Un réseau de neurones convolutionnel basé sur des blocs pour la classification d’images à faible résolution

Le succès des architectures basées sur les réseaux de neurones convolutifs (CNN) dans la classification d’images, notamment en ce qui concerne l’apprentissage et l’extraction de caractéristiques, les a rendues extrêmement populaires ces dernières années. Toutefois, la tâche de classification d’images devient bien plus complexe lorsqu’on applique des modèles d’avant-garde à des images bruitées et de mauvaise qualité. Il reste difficile pour ces modèles d’extraire des caractéristiques significatives de ce type d’images, en raison de leur faible résolution et du manque de caractéristiques globales pertinentes. En outre, le traitement des images à haute résolution nécessite un plus grand nombre de couches, ce qui implique un temps d’entraînement plus long et une consommation accrue de puissance de calcul. Notre méthode aborde également le problème des gradients qui disparaissent, particulièrement lorsque les réseaux neuronaux profonds deviennent plus profonds, comme mentionné précédemment.Afin de résoudre l’ensemble de ces défis, nous avons conçu une nouvelle architecture de classification d’images, composée de blocs spécifiquement conçus pour apprendre à la fois des caractéristiques de bas niveau et des caractéristiques globales à partir d’images floues, bruitées et de faible résolution. La conception de ces blocs a été fortement inspirée par les connexions résiduelles (Residual Connections) et les modules Inception, afin d’améliorer les performances tout en réduisant la taille des paramètres. Nous avons également évalué notre approche à l’aide des jeux de données de la famille MNIST, en mettant un accent particulier sur le jeu Oracle-MNIST, qui est le plus difficile à classifier en raison de la qualité médiocre et du bruit présents dans les images. Des tests approfondis ont démontré que l’architecture proposée est plus rapide et plus précise que les réseaux de neurones convolutifs d’avant-garde existants. En outre, grâce aux propriétés uniques de notre modèle, il parvient à obtenir de meilleurs résultats avec un nombre réduit de paramètres.