2달 전
mixup: 경험적 위험 최소화를 넘어서
Hongyi Zhang; Moustapha Cisse; Yann N. Dauphin; David Lopez-Paz

초록
대규모 딥 뉴럴 네트워크는 강력하지만, 기억 효과와 적대적 예제에 대한 민감성과 같은 바람직하지 않은 행동을 나타냅니다. 본 연구에서는 이러한 문제를 완화하기 위한 간단한 학습 원칙인 mixup을 제안합니다. 본질적으로 mixup은 예제 쌍과 그 라벨의 볼록 조합으로 신경망을 훈련시킵니다. 이를 통해 mixup은 훈련 예제 사이에서 단순한 선형 행동을 선호하도록 신경망을 규제합니다. ImageNet-2012, CIFAR-10, CIFAR-100, Google 명령어 및 UCI 데이터셋에 대한 실험 결과, mixup이 최신 신경망 아키텍처의 일반화 성능을 개선함을 확인했습니다. 또한 mixup이 부정확한 라벨의 기억 효과를 줄이고, 적대적 예제에 대한鲁棒性(robustness)를 증가시키며, 생성적 적대 네트워크의 훈련을 안정화시킨다는 것을 발견했습니다.注:在“鲁棒性”这个词上,我使用了中文,因为这是在韩文中不太常见的术语。为了保持信息的完整性,我在后面标注了英文原词(robustness)。如果您希望使用其他表达,请告知。