
컨벌루션 신경망(ConvNets)은 일반적으로 고정된 자원 예산으로 개발되고, 더 많은 자원이 사용 가능할 경우 정확도 향상을 위해 확장됩니다. 본 논문에서는 모델 확장을 체계적으로 연구하여 네트워크의 깊이, 너비 및 해상도를 조심스럽게 균형 있게 유지하면 성능 향상에 이르는 것을 확인하였습니다. 이러한 관찰을 바탕으로, 우리는 깊이/너비/해상도의 모든 차원을 단순하면서도 매우 효과적인 복합 계수(compound coefficient)를 사용하여 일관되게 확장하는 새로운 방법을 제안합니다. 우리는 이 방법이 MobileNets와 ResNet의 확장에 얼마나 효과적인지를 보여주었습니다.더 나아가기 위해, 우리는 신경망 구조 탐색(neural architecture search)을 사용하여 새로운 기준 네트워크를 설계하고 이를 확장하여 EfficientNets라는 모델군을 얻었습니다. 이 EfficientNets는 이전 ConvNets보다 훨씬 뛰어난 정확도와 효율성을 달성하였습니다. 특히, 우리의 EfficientNet-B7은 ImageNet에서 최고 수준의 84.3% Top-1 정확도를 달성하였으며, 현재까지 가장 우수한 기존 ConvNet보다 8.4배 작고 추론 시 6.1배 빠릅니다. 우리의 EfficientNets는 또한 잘 전이학습(transfer well)되어 CIFAR-100 (91.7%), Flowers (98.8%) 및 3개의 다른 전이학습 데이터셋에서 최고 수준의 정확도를 달성하였으며, 매개변수 수가 한 자릿수 배로 적습니다. 소스 코드는 https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet 에서 확인할 수 있습니다.