17일 전

EfficientNetV2: 더 작고 더 빠른 훈련을 위한 모델

Mingxing Tan, Quoc V. Le
EfficientNetV2: 더 작고 더 빠른 훈련을 위한 모델
초록

이 논문은 기존 모델보다 훨씬 빠른 훈련 속도와 더 뛰어난 파라미터 효율성을 갖춘 새로운 컨볼루션 네트워크 계열인 EfficientNetV2를 소개한다. 이 모델 계열을 개발하기 위해, 훈련 속도와 파라미터 효율성을 동시에 최적화하기 위해 훈련 인지 신경망 아키텍처 탐색(Training-aware Neural Architecture Search)과 스케일링을 결합하였다. 이 모델들은 Fused-MBConv와 같은 새로운 연산자들을 포함한 확장된 검색 공간에서 탐색되었다. 실험 결과, EfficientNetV2 모델들은 최신 기준 모델들보다 훨씬 빠르게 훈련되며, 크기는 최대 6.8배 작아짐을 확인할 수 있었다.훈련 중에 이미지 크기를 점진적으로 증가시키는 방식을 사용하면 훈련 속도를 추가로 높일 수 있지만, 이는 종종 정확도 저하를 초래한다. 이러한 정확도 저하를 보완하기 위해, 드롭아웃과 데이터 증강과 같은 정규화 기법을 적응적으로 조정하는 방법을 제안한다. 이를 통해 빠른 훈련과 높은 정확도를 동시에 달성할 수 있다.점진적 학습(Progressive Learning) 기법을 도입한 EfficientNetV2는 ImageNet 및 CIFAR/Cars/Flowers 데이터셋에서 기존 모델들을 크게 앞서간다. 동일한 ImageNet21k 데이터셋으로 사전 학습한 결과, EfficientNetV2는 ImageNet ILSVRC2012에서 87.3%의 Top-1 정확도를 달성하며, 최근의 ViT 모델보다 2.0% 높은 성능을 보였다. 동시에 동일한 컴퓨팅 자원을 사용할 때 훈련 속도는 5~11배 빠르게 수행되었다. 코드는 https://github.com/google/automl/tree/master/efficientnetv2 에서 공개될 예정이다.

EfficientNetV2: 더 작고 더 빠른 훈련을 위한 모델 | 최신 연구 논문 | HyperAI초신경