언더샘플링이는 훈련 세트에서 샘플 수가 많은 범주를 과소 샘플링하는 것으로 이해할 수 있는 샘플을 버림으로써 클래스 불균형을 완화하는 방법입니다.
데이터에서 과소 샘플링을 하는 목적은 샘플링 중에 범주가 고르지 않게 되는 문제를 해결하는 것입니다. 언더샘플링과 오버샘플링 외에도 두 기술을 결합하여 SMOTE와 Tomek Link, SMOTE와 Edited Nearest Neighbor ENN과 같은 하이브리드 전략으로 만드는 것도 가능합니다.
불균형 데이터 세트에서 학습하는 다른 접근 방식(예: 훈련 인스턴스의 가중치 부여)은 긍정적 및 부정적 예시에 대해 서로 다른 오분류 및 부트스트래핑 비용을 도입합니다.