2달 전

베이지안 희소 네트워크와 완전 경험이 재생을 활용한 연속 학습

Dong Gong; Qingsen Yan; Yuhang Liu; Anton van den Hengel; Javen Qinfeng Shi
베이지안 희소 네트워크와 완전 경험이 재생을 활용한 연속 학습
초록

지속 학습(Continual Learning, CL) 방법은 기계 학습 모델이 이전에 습득한 작업을 잊지 않고 새로운 작업을 학습할 수 있도록 하는 것을 목표로 합니다. 기존의 CL 접근 방식들은 종종 이전에 본 샘플들의 버퍼를 유지하거나 지식 증류(knowledge distillation)를 수행하거나 정규화(regularization) 기법을 사용하여 이러한 목표를 달성하려고 합니다. 그러나 그 성능에도 불구하고, 여전히 작업 간 간섭(interference)으로 인해 재앙적 잊음(catastrophic forgetting)이 발생합니다. 이 문제를 완화하기 위해, 우리는 모든 단계에서 현재 및 과거 작업을 학습하기 위해 희소(sparse) 뉴런만 활성화하고 선택하는 방법을 제안합니다. 이렇게 하면 더 많은 매개변수 공간과 모델 용량을 미래의 작업에 예약할 수 있습니다. 이는 서로 다른 작업 간 매개변수 간의 간섭을 최소화합니다.이를 위해, 우리는 모든 층의 뉴런 활성화에 변분 베이지안 희소성 사전 확률(variational Bayesian sparsity priors)을 적용하는 희소 신경망(Sparse Neural Network for Continual Learning, SNCL)을 제안합니다. 전체 경험 재생(Full Experience Replay, FER)은 서로 다른 층에서 뉴런의 희소 활성화를 학습하는 데 효과적인 감독을 제공합니다. 또한, 메모리 버퍼를 유지하기 위해 손실 인식 리저버 샘플링(loss-aware reservoir-sampling) 전략을 개발하였습니다. 제안된 방법은 네트워크 구조와 작업 경계에 대해 무관심(agnostic)입니다. 다양한 데이터셋에서 수행된 실험 결과, 우리의 접근 방식이 잊음을 완화하는 데 있어 최신 기술(state-of-the-art) 성능을 달성함을 보여주었습니다.

베이지안 희소 네트워크와 완전 경험이 재생을 활용한 연속 학습 | 최신 연구 논문 | HyperAI초신경