스파이킹 뉴럴 네트워크 훈련을 위한 뉴로모픽 데이터 증강

스파이킹 뉴럴 네트워크(SNNs)를 이벤트 기반 데이터셋에서 신경형 지능으로 개발하는 것이 최근 많은 연구 관심을 받고 있습니다. 그러나 이벤트 기반 데이터셋의 크기가 제한적이기 때문에 SNNs는 과적합(overfitting)과 불안정한 수렴(convergence)에 취약합니다. 이 문제는 이전 학술 연구에서 아직 탐구되지 않았습니다.이 일반화 간극(generalization gap)을 최소화하기 위해, 우리는 이벤트 기반 데이터셋을 위해 특별히 설계된 기하학적 증강(geometric augmentations) 방법인 신경형 데이터 증강(Neuromorphic Data Augmentation, NDA)을 제안합니다. NDA의 목표는 SNN 훈련을 크게 안정화하고 훈련 성능과 테스트 성능 사이의 일반화 간극을 줄이는 것입니다. 제안된 방법은 단순하며 기존 SNN 훈련 파이프라인과 호환됩니다.제안된 증강 방법을 사용하여, 우리는 처음으로 SNNs에서 비지도 대조적 학습(unsupervised contrastive learning)의 가능성을 시연합니다. 우리는 주요 신경형 비전 벤치마크에서 포괄적인 실험을 수행하여 NDA가 이전 최신 결과(state-of-the-art results)보다 상당한 개선 효과를 나타냄을 보여주었습니다. 예를 들어, NDA 기반 SNN은 CIFAR10-DVS와 N-Caltech 101에서 각각 10.1%와 13.7%의 정확도 향상을 달성했습니다. 코드는 GitHub에서 이용할 수 있습니다: https://github.com/Intelligent-Computing-Lab-Yale/NDA_SNN