
초록
Mixup는 입력 샘플과 해당 출력을 선형적으로 보간하는 데이터 의존적 정규화 기법이다. 기존의 머신러닝 데이터셋에서 학습할 때 정확도 향상에 기여함이 입증된 바 있다. 그러나 일부 연구자들은 Mixup가 분포 외 가상 샘플을 생성할 수 있으며, 증강된 학습 세트 내에서 모순을 초래할 수 있어 악성 영향을 미칠 수 있다고 지적한 바 있다. 본 논문에서는 손실을 계산할 때 거리가 먼 입력 샘플에 대해 가중치를 낮추는 로컬 Mixup(Local Mixup)을 제안한다. 제약 조건이 있는 설정에서 로컬 Mixup가 편향과 분산 사이의 트레이드오프를 가능하게 함을 보여주며, 극단적인 경우는 전통적인 학습과 기존 Mixup로 수렴함을 입증하였다. 표준화된 컴퓨터 비전 벤치마크를 활용한 실험을 통해 로컬 Mixup가 테스트 정확도를 향상시킬 수 있음을 확인하였다.