3달 전

소수 샘플 학습을 위한 오픈세트 우도 최대화

Malik Boudiaf, Etienne Bennequin, Myriam Tami, Antoine Toubhans, Pablo Piantanida, Céline Hudelot, Ismail Ben Ayed
소수 샘플 학습을 위한 오픈세트 우도 최대화
초록

우리는 소수의 레이블링된 샘플만 존재하는 클래스 집합 내에서 인스턴스를 분류하면서, 알려진 어떤 클래스에도 속하지 않는 인스턴스를 동시에 탐지하는 소수 샘플 오픈셋 인식(Few-Shot Open-Set Recognition, FSOSR) 문제를 다룹니다. 기존의 전이적(transductive) 설정을 탐색하며, 추론 시 미레이블링된 쿼리 인스턴스를 활용하는 방식을 고려합니다. 기존의 전이적 방법들이 오픈셋 환경에서 성능이 낮다는 관찰에 기반하여, 기존의 최대우도 원리(maximum likelihood principle)를 일반화한 새로운 접근법을 제안합니다. 이 방법은 일반적인 파라미터 모델 외에 잠재적 이상치(oultiers)의 영향을 감소시키는 잠재 점수(latent scores)를 도입합니다. 제안하는 공식은 지원 세트(support set)로부터의 지도 제약 조건을 포함하며, 쿼리 세트에서 과도한 자신감 있는 예측을 억제하는 추가적인 페널티를 포함합니다. 우리는 잠재 점수와 파라미터 모델을 번갈아가며 공동 최적화하는 블록좌표강하(block-coordinate descent) 방법을 적용하여, 두 요소 간의 상호 보완적 이점을 활용합니다. 본 연구에서 제안하는 방법을 \textit{오픈셋 우도 최적화}(Open-Set Likelihood Optimization, OSLO)라 명명합니다. OSLO는 해석이 가능하고 완전히 모듈화된 구조를 가지며, 사전 훈련된 모델 위에 원활하게 적용 가능합니다. 광범위한 실험을 통해, 본 방법이 오픈셋 인식의 두 가지 핵심 요소인 내부 인스턴스 분류와 이상치 탐지에서 기존의 유도적(inductive) 및 전이적(transductive) 방법들을 모두 초월함을 입증하였습니다.