17일 전
적은 샘플 학습의 성능 향상을 위한 적응형 마진 손실
Aoxue Li, Weiran Huang, Xu Lan, Jiashi Feng, Zhenguo Li, Liwei Wang

초록
최근 몇 가지 예시 학습(few-shot learning, FSL)은 점점 더 많은 주목을 받고 있지만, 소수의 예시에서 일반화 능력을 학습하는 데 내재된 어려움으로 인해 여전히 도전 과제로 남아 있다. 본 논문은 메트릭 기반 메타학습 접근법의 일반화 능력을 향상시키기 위해 적응형 마진 원칙(adaptive margin principle)을 제안한다. 구체적으로, 각 클래스 쌍 간의 의미적 유사도를 고려하여 특징 임베딩 공간에서 유사한 클래스로부터 샘플을 분리하는 클래스 관련 가산 마진 손실(class-relevant additive margin loss)을 개발한다. 더불어, 샘플링된 학습 작업 내 모든 클래스 간의 의미적 맥락을 반영하여 클래스 간 샘플을 보다 효과적으로 구분할 수 있도록 작업 관련 가산 마진 손실(task-relevant additive margin loss)을 제안한다. 제안하는 적응형 마진 방법은 더 현실적인 일반화된 FSL 설정(generalized FSL setting)으로도 간편하게 확장 가능하다. 광범위한 실험 결과는 제안된 방법이 기존 메트릭 기반 메타학습 접근법의 성능을 표준 FSL 및 일반화된 FSL 설정 모두에서 향상시킬 수 있음을 입증한다.