시간을 통한 스파이킹 뉴럴 네트워크의 온라인 학습

스파이킹 뉴럴 네트워크(SNNs)는 유망한 뇌에서 영감을 받은 에너지 효율적인 모델입니다. 최근 학습 방법의 발전으로 인해 대규모 작업에서 저 지연 시간으로 성공적인 깊은 SNNs를 구현할 수 있게 되었습니다. 특히, 대체 그래디언트(SG)를 사용한 시간을 통한 역전파(BPTT)가 매우 적은 시간 단계에서 높은 성능을 달성하기 위해 널리 사용되고 있습니다. 그러나 이 방법은 학습 시 큰 메모리 소비, 최적화에 대한 이론적 명확성 부족, 그리고 생물학적 학습과 뉴로모픽 하드웨어 상의 규칙과의 일관성 부족이라는 비용을 지불해야 합니다. 다른 연구에서는 SNNs의 스파이크 표현을 동등한 인공 신경망 형식과 연결하여 동등한 매핑에서 그래디언트를 통해 하강 방향을 보장하며 SNNs를 학습합니다. 하지만 이들 방법은 저 지연 시간을 달성하지 못하며 온라인 학습도 지원하지 않습니다.본 연구에서는 BPTT로부터 파생된 OTTT(Online Training Through Time)를 제안하여, 사전 시냅스 활동을 추적하고 순간 손실 및 그래디언트를 활용하여 시간 순방향 학습을 가능하게 합니다. 또한, 우리는 이론적으로 분석하고 증명하였습니다. OTTT의 그래디언트가 피드포워드와 재귀 조건 모두에서 스파이크 표현 기반 그래디언트와 유사한 하강 방향을 제공할 수 있다는 것입니다. OTTT는 시간 단계에 관계없이 일정한 학습 메모리 비용만 필요로 하므로 GPU 학습 시 BPTT의 큰 메모리 비용을 피할 수 있습니다. 더 나아가, OTTT의 업데이트 규칙은 세 가지 요소를 포함하는 헤비안 학습 형태로, 온라인 칩상 학습(on-chip learning)의 길을 열 수 있을 것으로 기대됩니다.OTTT를 통해 BPTT와 SG, 스파이크 표현 기반 학습이라는 두 개의 주요 감독형 SNN 학습 방법이 처음으로 연결되었으며, 동시에 생물학적으로 타당한 형태로 연결되었습니다. CIFAR-10, CIFAR-100, ImageNet, CIFAR10-DVS 데이터셋에서 수행된 실험들은 우리의 방법이 작은 시간 단계에서도 대규모 정적 및 뉴로모픽 데이터셋에서 우수한 성능을 보임을 입증하였습니다.