Augmentation de données neuromorphiques pour l'entraînement des réseaux de neurones à impulsions

Le développement de l'intelligence néuromorphique sur des ensembles de données basés sur les événements à l'aide de Réseaux Neuronaux à Impulsions (SNNs) a récemment attiré beaucoup d'attention dans la recherche. Cependant, la taille limitée des ensembles de données basés sur les événements rend les SNNs vulnérables au surapprentissage et à une convergence instable. Ce problème n'a pas encore été exploré par les travaux académiques précédents. Afin de minimiser cet écart de généralisation, nous proposons l'Augmentation de Données Néuromorphiques (NDA), une famille d'augmentations géométriques spécifiquement conçues pour les ensembles de données basés sur les événements, avec pour objectif de stabiliser considérablement l'entraînement des SNNs et de réduire l'écart de généralisation entre les performances d'entraînement et de test. La méthode proposée est simple et compatible avec les pipelines d'entraînement existants pour les SNNs. En utilisant cette augmentation, nous démontrons pour la première fois la faisabilité de l'apprentissage contrastif non supervisé pour les SNNs. Nous menons des expériences exhaustives sur des benchmarks prédominants en vision néuromorphique et montrons que le NDA apporte des améliorations substantielles par rapport aux résultats antérieurs de pointe. Par exemple, le SNN basé sur le NDA obtient une amélioration de précision sur CIFAR10-DVS et N-Caltech 101 respectivement de 10,1 % et 13,7 %. Le code est disponible sur GitHub : https://github.com/Intelligent-Computing-Lab-Yale/NDA_SNN