
초록
통합된 비전 시스템을 구축하거나 시스템에 새로운 기능을 점진적으로 추가할 때, 일반적으로 모든 작업에 대한 훈련 데이터가 항상 사용 가능하다는 가정이 이루어집니다. 그러나 작업의 수가 증가함에 따라 이러한 데이터를 저장하고 재훈련하는 것이 현실적으로 불가능해집니다. 이로 인해 새로운 문제가 발생하는데, 이는 기존 기능에 대한 훈련 데이터가 사용 불가능한 상태에서 Convolutional Neural Network(CNN)에 새로운 기능을 추가하는 문제입니다. 우리는 이러한 상황에서 오직 새로운 작업 데이터만을 사용하여 네트워크를 훈련시키면서도 원래의 기능을 유지할 수 있는 '학습하면서 잊지 않기(Learning without Forgetting)' 방법을 제안합니다. 우리의 방법은 일반적으로 사용되는 특성 추출 및 미세 조정(fine-tuning) 적응 기술과 비교하여 우수한 성능을 보이며, 우리가 사용 불가능하다고 가정한 원래 작업 데이터를 사용하는 다중태스크 학습(multitask learning)과 유사한 성능을 나타냅니다. 더욱 놀라운 관찰 결과는 '학습하면서 잊지 않기' 방법이 유사한 옛 작업 및 새 작업 데이터셋에서 새 작업 성능 개선을 위해 미세 조정(fine-tuning)을 대체할 수 있다는 것입니다.