17일 전

악의적인 예제는 이미지 인식 성능을 향상시킨다

Cihang Xie, Mingxing Tan, Boqing Gong, Jiang Wang, Alan Yuille, Quoc V. Le
악의적인 예제는 이미지 인식 성능을 향상시킨다
초록

대조적 예시는 일반적으로 컨볼루션 신경망(ConvNets)에 대한 위협으로 간주된다. 그러나 본 연구에서는 반대의 관점을 제시한다. 적절한 방식으로 활용된다면, 대조적 예시는 이미지 인식 모델의 성능을 향상시키는 데 활용될 수 있다. 우리는 과적합을 방지하기 위해 대조적 예시를 추가적인 학습 예시로 간주하는 개선된 적대적 학습 기법인 AdvProp을 제안한다. 본 방법의 핵심은 일반 예시와는 다른 기저 분포를 가진 대조적 예시에 대해 별도의 보조 배치 정규화(Batch Norm)를 사용하는 점이다.AdvProp이 다양한 이미지 인식 작업에서 다양한 모델에 걸쳐 성능을 향상시킴을 보이며, 모델이 클수록 더 우수한 성능을 발휘함을 확인했다. 예를 들어, ImageNet에 최신 EfficientNet-B7 모델에 AdvProp을 적용한 결과, ImageNet(+0.7%), ImageNet-C(+6.5%), ImageNet-A(+7.0%), Stylized-ImageNet(+4.8%)에서 유의미한 성능 향상을 달성하였다. 더욱 강화된 EfficientNet-B8 모델을 사용하여, 추가 데이터 없이도 최신 기술 수준의 85.5%의 ImageNet top-1 정확도를 달성하였다. 이 결과는 ImageNet 데이터보다 약 3000배 많은 35억 개의 Instagram 이미지(~3000X)와 약 9.4배 더 많은 파라미터로 훈련된 최고 성능 모델([20] 참조)을 초월한다. 관련 모델은 https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet 에서 공개되어 있다.

악의적인 예제는 이미지 인식 성능을 향상시킨다 | 최신 연구 논문 | HyperAI초신경