악의적인 예제는 이미지 인식 성능을 향상시킨다

대조적 예시는 일반적으로 컨볼루션 신경망(ConvNets)에 대한 위협으로 간주된다. 그러나 본 연구에서는 반대의 관점을 제시한다. 적절한 방식으로 활용된다면, 대조적 예시는 이미지 인식 모델의 성능을 향상시키는 데 활용될 수 있다. 우리는 과적합을 방지하기 위해 대조적 예시를 추가적인 학습 예시로 간주하는 개선된 적대적 학습 기법인 AdvProp을 제안한다. 본 방법의 핵심은 일반 예시와는 다른 기저 분포를 가진 대조적 예시에 대해 별도의 보조 배치 정규화(Batch Norm)를 사용하는 점이다.AdvProp이 다양한 이미지 인식 작업에서 다양한 모델에 걸쳐 성능을 향상시킴을 보이며, 모델이 클수록 더 우수한 성능을 발휘함을 확인했다. 예를 들어, ImageNet에 최신 EfficientNet-B7 모델에 AdvProp을 적용한 결과, ImageNet(+0.7%), ImageNet-C(+6.5%), ImageNet-A(+7.0%), Stylized-ImageNet(+4.8%)에서 유의미한 성능 향상을 달성하였다. 더욱 강화된 EfficientNet-B8 모델을 사용하여, 추가 데이터 없이도 최신 기술 수준의 85.5%의 ImageNet top-1 정확도를 달성하였다. 이 결과는 ImageNet 데이터보다 약 3000배 많은 35억 개의 Instagram 이미지(~3000X)와 약 9.4배 더 많은 파라미터로 훈련된 최고 성능 모델([20] 참조)을 초월한다. 관련 모델은 https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet 에서 공개되어 있다.