HyperAIHyperAI
il y a 2 mois

Formation en ligne à travers le temps pour les réseaux de neurones à impulsions

Xiao, Mingqing ; Meng, Qingyan ; Zhang, Zongpeng ; He, Di ; Lin, Zhouchen
Formation en ligne à travers le temps pour les réseaux de neurones à impulsions
Résumé

Les réseaux de neurones à impulsions (Spiking Neural Networks, SNNs) sont des modèles prometteurs inspirés du cerveau et économes en énergie. Les progrès récents dans les méthodes d'entraînement ont permis l'utilisation réussie de SNNs profonds pour des tâches à grande échelle avec une faible latence. En particulier, la rétropropagation dans le temps (Backpropagation Through Time, BPTT) avec gradients substituts (Surrogate Gradients, SG) est largement utilisée pour atteindre des performances élevées en un très petit nombre d'étapes temporelles. Cependant, cela se fait au prix d'une consommation importante de mémoire lors de l'entraînement, d'un manque de clarté théorique pour l'optimisation et d'une incompatibilité avec la propriété en ligne de l'apprentissage biologique et des règles sur le matériel néuromorphique. D'autres travaux établissent une connexion entre les représentations par impulsions des SNNs et une formulation équivalente de réseaux de neurones artificiels, entraînant les SNNs par gradients issus de ces mappings pour garantir des directions descendantes. Cependant, ces approches ne parviennent pas à assurer une faible latence et ne sont pas non plus en ligne. Dans ce travail, nous proposons l'entraînement en ligne à travers le temps (Online Training Through Time, OTTT) pour les SNNs, dérivé de BPTT afin de permettre l'apprentissage avançant dans le temps en suivant les activités pré-synaptiques et en exploitant la perte instantanée et les gradients. Parallèlement, nous analysons théoriquement et prouvons que les gradients d'OTTT peuvent fournir une direction descendante similaire pour l'optimisation que les gradients basés sur les représentations par impulsions, tant dans les conditions feedforward que récurrentes. OTTT n'exige qu'un coût constant en mémoire d'entraînement indépendamment du nombre d'étapes temporelles, évitant ainsi les coûts importants en mémoire associés à BPTT pour l'entraînement sur GPU. De plus, la règle de mise à jour d'OTTT prend la forme d'un apprentissage Hebbien tripartite, ouvrant ainsi la voie à un apprentissage en ligne sur puce. Avec OTTT, il s'agit de la première fois que deux méthodes principales d'entraînement supervisé des SNNs, BPTT avec SG et l'entraînement basé sur les représentations par impulsions, sont connectées tout en conservant une forme biologiquement plausible. Des expériences menées sur CIFAR-10, CIFAR-100, ImageNet et CIFAR10-DVS démontrent la supériorité de notre méthode sur des jeux de données statiques et néuromorphiques à grande échelle dans un petit nombre d'étapes temporelles.

Formation en ligne à travers le temps pour les réseaux de neurones à impulsions | Articles de recherche récents | HyperAI