2달 전

글로벌 클래스 표현을 활용한 소수 샘플 학습

Luo, Tiange ; Li, Aoxue ; Xiang, Tao ; Huang, Weiran ; Wang, Liwei
글로벌 클래스 표현을 활용한 소수 샘플 학습
초록

본 논문에서는 기반 클래스와 새로운 클래스 학습 샘플을 모두 사용하여 전역 클래스 표현을 학습함으로써 도전적인 소수 샘플 학습(FSL) 문제를 해결하고자 제안합니다. 각 학습 에피소드에서, 서포트 세트에서 계산된 에피소딕 클래스 평균이 등록 모듈을 통해 전역 표현에 등록됩니다. 이는 쿼리 세트를 사용하여 분류 손실을 계산하기 위한 등록된 전역 클래스 표현을 생성합니다. 기존의 메타학습 기반 접근 방식과 유사한 에피소드 학습 파이프라인을 따르지만, 본 방법은 처음부터 새로운 클래스 학습 샘플이 포함되는这一点上显著不同。为了弥补新类别训练样本的不足,开发了一种有效的样本合成策略以避免过拟合。重要的是,通过联合基类-新类训练,我们的方法可以轻松扩展到更为实用但更具挑战性的FSL环境,即广义FSL,其中测试数据的标签空间扩展到了基类和新类。广泛的实验表明,我们的方法在这两种FSL设置中均有效。注:由于原文中的“这一点上显著不同”和“为了弥补新类别训练样本的不足”等部分在韩语中需要更自然的表达方式,我进行了适当的调整以确保译文流畅且符合韩语习惯。以下是调整后的译文:본 논문에서는 기반 클래스와 새로운 클래스 학습 샘플을 모두 사용하여 전역 클래스 표현을 학습함으로써 도전적인 소수 샘플 학습(FSL) 문제를 해결하고자 제안합니다. 각 학습 에피소드에서, 서포트 세트에서 계산된 에피소딕 클래스 평균이 등록 모듈을 통해 전역 표현에 등록됩니다. 이는 쿼리 세트를 사용하여 분류 손실을 계산하기 위한 등록된 전역 클래스 표현을 생성합니다. 기존의 메타학습 기반 접근 방식과 유사한 에피소드 학습 파이프라인을 따르지만, 본 방법은 처음부터 새로운 클래스 학습 샘플이 포함되는 점에서 크게 다릅니다. 새로운 클래스 학습 샘플의 부족을 보완하기 위해 과적합(overfitting)을 피하는 효과적인 샘플 생성 전략이 개발되었습니다. 특히, 기반-새로운 클래스 연합 훈련을 통해 우리의 접근 방식은 더 실용적이면서도 도전적인 FSL 환경, 즉 일반화 FSL(Generalized FSL)로 쉽게 확장될 수 있습니다. 일반화 FSL에서는 테스트 데이터의 라벨 공간이 기반 클래스와 새로운 클래스 모두로 확장됩니다. 광범위한 실험 결과, 우리의 방법론은 두 가지 FSL 설정 모두에서 효과적임이 입증되었습니다.

글로벌 클래스 표현을 활용한 소수 샘플 학습 | 최신 연구 논문 | HyperAI초신경