한 달 전

학습을 통한 기억: 시냅스 가소성에 기반한 지속 학습 프레임워크

Oleksiy Ostapenko; Mihai Puscas; Tassilo Klein; Patrick Jähnichen; Moin Nabi
학습을 통한 기억: 시냅스 가소성에 기반한 지속 학습 프레임워크
초록

연속 학습(Continual Learning, CL) 환경에서 훈련된 모델은 정의되지 않은 기간 동안 데이터 스트림으로부터 학습할 수 있어야 합니다. 이에 대한 주요 과제는 다음과 같습니다: 1) 새로운 작업을 학습할 때 오래된 지식을 유지하면서 동시에 그로부터 혜택을 받고, 2) 학습해야 하는 데이터의 양이 증가함에 따라 모델의 확장성을 보장하는 것입니다. 이러한 과제를 해결하기 위해, 우리는 연속 학습을 위한 시냅스 가소성(Synaptic Plasticity) 기반 프레임워크인 동적 생성 메모리(Dynamic Generative Memory, DGM)를 소개합니다. DGM은 신경망 마스킹(Neural Masking)을 통해 실현되는 학습 가능한 연결 가소성을 갖춘 조건부 생성 적대 네트워크(Conditional Generative Adversarial Networks)에 의존합니다. 특히, 우리는 두 가지 변형의 신경망 마스킹을 평가합니다: (i) 레이어 활성화(Layer Activations)에 적용된 것과 (ii) 연결 가중치(Connection Weights)에 직접 적용된 것입니다. 또한, 우리는 계속해서 들어오는 작업을 수용하기 위해 충분한 모델 용량을 보장하는 동적 네트워크 확장 메커니즘을 제안합니다. 추가되는 용량의 양은 학습된 이진 마스크(Binary Mask)로부터 동적으로 결정됩니다. 우리는 시각 분류 작업에서 클래스 증가형 연속 학습(Class-Incremental Continual Learning) 설정에서 DGM을 평가하였습니다.

학습을 통한 기억: 시냅스 가소성에 기반한 지속 학습 프레임워크 | 최신 연구 논문 | HyperAI초신경