한 달 전

딥 어댑테이션을 통한 증분 학습

Amir Rosenfeld; John K. Tsotsos
딥 어댑테이션을 통한 증분 학습
초록

기존에 훈련된 신경망이 있을 때, 이미 학습한 성능을 저해하지 않고 새로운 기능을 학습하는 것이 종종 바람직합니다. 기존 접근 방식들은 하위 최적 해를 학습하거나, 공동 훈련을 요구하거나, 각 추가 도메인마다 원래 네트워크와 비슷한 수의 매개변수 증가를 초래합니다. 우리는 새로 학습된 필터가 기존 필터의 선형 조합이 되도록 제약하는 방법인 \emph{딥 어댑테이션 네트워크} (DAN)를 제안합니다. DAN은 원래 도메인에서의 성능을 정확히 유지하며, 표준 미세조정 절차에 비해 매개변수 수의 일부(일반적으로 13%, 네트워크 구조에 따라 다름)만 필요하며, 유사하거나 더 나은 수준의 성능으로 수렴하는데 필요한 훈련 주기가 적습니다. 표준 네트워크 양자화 기술과 결합하면 매개변수 비용을 원래의 약 3%로 줄일 수 있으며, 정확도 손실은 거의 없거나 없습니다. 학습된 아키텍처는 다양한 학습된 표현 간에 전환할 수 있도록 제어될 수 있어 단일 네트워크가 여러 다른 도메인에서 작업을 해결할 수 있습니다. 우리는 광범위한 실험을 수행하여 다양한 이미지 분류 작업에서 우리 방법의 효과성을 보여주고 그 행동 특성의 여러 측면을 탐구하였습니다.

딥 어댑테이션을 통한 증분 학습 | 최신 연구 논문 | HyperAI초신경