Réseaux de Capsules Denses et Diversifiés : Améliorer l'Apprentissage des Capsules

Ces dernières années ont vu une croissance exponentielle de l'intérêt pour les méthodologies d'apprentissage profond, avec des améliorations rapides en termes de précision et une réduction de la complexité computationnelle. En particulier, les architectures utilisant des Réseaux Neuronaux Convolutifs (CNNs) ont produit des performances de pointe pour les tâches de classification d'images et de reconnaissance d'objets. Récemment, les Réseaux de Capsules (CapsNet) ont réalisé une augmentation significative des performances en abordant une limitation inhérente des CNNs dans l'encodage de la position et de la déformation. Inspirés par ces avancées, nous nous sommes interrogés : pouvons-nous faire mieux ? Nous proposons donc les Réseaux de Capsules Denses (DCNet) et les Réseaux de Capsules Diversifiés (DCNet++).Les deux cadres proposés adaptent le CapsNet en remplaçant les couches convolutives standards par des convolutions densément connectées. Cela aide à incorporer les cartes de caractéristiques apprises par différentes couches dans la formation des capsules primaires. Le DCNet ajoute essentiellement un réseau neuronal convolutif plus profond, ce qui conduit à l'apprentissage de cartes de caractéristiques discriminantes. De plus, le DCNet++ utilise une architecture hiérarchique pour apprendre des capsules qui représentent l'information spatiale d'une manière fine à grossière, ce qui le rend plus efficace pour l'apprentissage de données complexes.Des expériences sur la tâche de classification d'images utilisant des jeux de données基准数据集(benchmark datasets)ont démontré l'efficacité des architectures proposées. Le DCNet atteint une performance de pointe (99,75 %) sur le jeu de données MNIST avec une réduction vingt fois plus importante du nombre total d'itérations d'entraînement par rapport au CapsNet conventionnel. De plus, le DCNet++ se distingue du CapsNet sur le jeu de données SVHN (96,90 %), et surpassent un ensemble de sept modèles CapsNet sur CIFAR-10 avec une réduction sept fois plus importante du nombre de paramètres.Note: "基准数据集" is not a French term and has been left in Chinese with the English term "benchmark datasets" in parentheses for clarity. If you prefer a full French translation or a different approach for this term, please let me know!