
초록
본 논문에서는 제로-베이스 일반화된 소수 샘플 학습(제로-베이스 GFSL)을 소개하고 연구합니다. 이는 프라이버시나 윤리적 문제로 인해 베이스 데이터가 사용할 수 없는 상황에서, 사전 훈련된 모델에 새로운 클래스의 소수 샘플 지식을 추가하는 극단적이지만 실제적인 소수 샘플 학습 문제의 버전입니다. 우리의 분석 결과, 새로운 클래스의 가중치 분포의 평균과 분산이 베이스 클래스와 비교하여 적절히 설정되지 않는다는 사실을 발견했습니다. 기존의 GFSL 방법들은 가중치 노름(weight norm)을 균형 있게 만드는 것을 시도하지만, 이는 분산 부분에만 도움이 되고 새로운 클래스의 가중치 평균의 중요성을 무시하여, 베이스 데이터가 있는 경우에도 GFSL 문제에서 성능이 제한적으로 나타납니다. 본 논문에서는 이러한 한계를 극복하기 위해, 베이스 샘플을 사용하지 않고도 새로운 클래스의 가중치 분포의 평균과 분산을 효과적으로 조절할 수 있는 간단하면서도 효율적인 정규화 방법을 제안합니다. 이를 통해 새로운 클래스와 베이스 클래스 모두에서 만족할 만한 성능을 달성하였습니다. 실험 결과는 놀랍게도 제안된 제로-베이스 GFSL 방법이 베이스 샘플을 최대한 활용하는 기존의 GFSL 방법들보다 더 우수한 성능을 보임을 확인하였습니다. 우리의 구현은 다음 주소에서 이용 가능합니다: https://github.com/bigdata-inha/Zero-Base-GFSL.