HyperAIHyperAI
il y a 17 jours

Propagation arrière de l'erreur basée sur le déplacement du temps d'émission dans les réseaux neuronaux spikants convolutifs

Maryam Mirsadeghi, Majid Shalchian, Saeed Reza Kheradpisheh, Timothée Masquelier
Propagation arrière de l'erreur basée sur le déplacement du temps d'émission dans les réseaux neuronaux spikants convolutifs
Résumé

Nous avons récemment proposé l'algorithme STiDi-BP, qui évite le calcul récursif arrière des gradients, pour l'entraînement des réseaux de neurones à impulsions (SNNs) multicouches utilisant un codage temporel fondé sur une seule impulsion. Cet algorithme repose sur une approximation linéaire pour calculer la dérivée du délai d’émission d’une impulsion par rapport au potentiel membranaire, et utilise des neurones à impulsions présentant une réponse post-synaptique par morceaux linéaire afin de réduire le coût computationnel et la complexité du traitement neuronal. Dans cet article, nous étendons l’algorithme STiDi-BP afin de l’appliquer à des architectures plus profondes et convolutives. Les résultats d’évaluation sur la tâche de classification d’images, basés sur deux benchmarks populaires — les jeux de données MNIST et Fashion-MNIST — atteignant respectivement des précisions de 99,2 % et 92,8 %, confirment que cet algorithme est efficace dans le cadre de SNNs profonds. Un autre enjeu abordé concerne la réduction de la mémoire nécessaire au stockage et du coût computationnel. Pour y parvenir, nous proposons un SNN convolutif (CSNN) utilisant deux ensembles de poids : des poids réels, mis à jour lors du passage arrière, et leurs signes, correspondant à des poids binaires, utilisés lors du passage avant. Nous évaluons ce CSNN binaire sur les deux jeux de données MNIST et Fashion-MNIST, et obtenons des performances acceptables avec une perte de précision négligeable par rapport aux poids réels (respectivement environ 0,6 % et 0,8 %).