11일 전

분류 증분 학습에서의 차별성 및 공정성 유지

Bowen Zhao, Xi Xiao, Guojun Gan, Bin Zhang, Shutao Xia
분류 증분 학습에서의 차별성 및 공정성 유지
초록

딥 신경망(DNN)은 새로운 클래스를 지속적으로 학습해야 하는 현실 세계의 문제를 해결하기 위해 계층적 증강 학습(클래스 증강 학습, class incremental learning)에 적용되어 왔다. 기존 DNN의 주요 단점 중 하나는 치명적인 잊힘(catastrophic forgetting)에 취약하다는 점이다. 지식 증류(Knowledge Distillation, KD)는 이 문제를 완화하기 위해 흔히 사용되는 기법이다. 본 논문에서는 KD가 기존 클래스 내에서 더 구분력 있는 출력을 가능하게 한다는 점을 입증한다. 그러나 KD는 모델이 객체를 새로운 클래스로 분류하려는 경향을 완화하지 못한다는 문제점이 있으며, 이로 인해 KD의 긍정적인 효과가 가려지고 제한된다. 우리는 치명적인 잊힘의 주요 원인이 계층적 증강 학습 환경에서 마지막 완전 연결(Fully Connected, FC) 계층의 가중치가 클래스 간에 크게 편향되어 있다는 점을 관찰하였다. 본 논문에서는 이러한 관찰에 기반하여 간단하면서도 효과적인 해결책을 제안한다. 먼저, KD를 활용하여 기존 클래스 내의 구분력을 유지한다. 이후 기존 클래스와 새로운 클래스 간의 공정성을 더욱 강화하기 위해, 일반적인 학습 과정 이후 FC 계층의 편향된 가중치를 보정하는 Weight Aligning(WA) 기법을 제안한다. 기존의 방법들과 달리 WA는 추가적인 파라미터나 사전에 준비된 검증 세트를 필요로 하지 않으며, 편향된 가중치 자체가 제공하는 정보만을 활용한다. 제안된 방법은 ImageNet-1000, ImageNet-100, CIFAR-100에서 다양한 설정 하에서 평가되었으며, 실험 결과 제안된 방법이 치명적인 잊힘을 효과적으로 완화하고 최신 기법들에 비해 뚜렷한 성능 우위를 보임을 확인하였다.

분류 증분 학습에서의 차별성 및 공정성 유지 | 최신 연구 논문 | HyperAI초신경