
초록
다중태스크 학습은 일반화 성능을 향상시키면서 고성능 신경망을 훈련시키는 인기 있는 접근 방식입니다. 본 논문에서는 계산량이 적게 들면서도 다중태스크 학습보다 더 우수한 일반화 성능을 달성하기 위해 배경 클래스를 제안합니다. 이는 계산 능력이 제한된 연구자와 기관들에게 도움을 주기 위함입니다. 또한 배경 이미지를 선택하는 방법론을 소개하고, 미래의 잠재적인 개선 방향에 대해 논의합니다. 우리는 여러 데이터셋에 우리의 접근 방식을 적용하여, 훨씬 적은 계산량으로 더 우수한 일반화 성능을 달성하였습니다. 훈련된 모델들의 클래스 활성화 매핑(CAMs)을 통해, 제안된 모델 훈련 방법론이 전체적인 시각에 집중하는 경향성을 관찰할 수 있었습니다. 제안된 배경 클래스를 사용하여 비전 트랜스포머를 적용하면, CIFAR-10C, Caltech-101, 그리고 CINIC-10 데이터셋에서 최신(SOTA) 수준의 성능을 얻을 수 있습니다. 예제 스크립트는 다음 GitHub 저장소의 `CAM' 폴더에서 확인 가능합니다: github.com/dipuk0506/UQ