EfficientNet: Neuaufnahme der Modellskalierung für Faltungsneuronale Netze

Faltungsschichtneuronale Netze (ConvNets) werden in der Regel unter einem festen Ressourcenbudget entwickelt und dann bei Verfügbarkeit zusätzlicher Ressourcen skaliert, um die Genauigkeit zu verbessern. In dieser Arbeit untersuchen wir das Modellskalieren systematisch und stellen fest, dass eine sorgfältige Ausbalancierung von Netzwerktiefe, -breite und -Auflösung zu einer besseren Leistung führen kann. Auf Basis dieser Beobachtung schlagen wir eine neue Skalierungsmethode vor, die alle Dimensionen von Tiefe/Breite/Auflösung mit einem einfachen aber hoch effektiven komplexen Koeffizienten gleichmäßig skaliert. Wir demonstrieren die Effektivität dieser Methode anhand der Skalierung von MobileNets und ResNet.Um noch weiter zu gehen, verwenden wir die neuronale Architektursuche, um ein neues Basismodell zu entwerfen und es zu skalieren, um eine Familie von Modellen zu erhalten, die als EfficientNets bezeichnet werden. Diese Modelle erzielen eine viel höhere Genauigkeit und Effizienz als bisherige ConvNets. Insbesondere erreicht unser EfficientNet-B7 den aktuellen Stand der Technik mit 84,3 % Top-1-Genauigkeit auf ImageNet, während es gleichzeitig 8,4-mal kleiner und 6,1-mal schneller bei der Inferenz ist als das beste existierende ConvNet. Unsere EfficientNets transferieren auch gut und erzielen den aktuellen Stand der Technik auf CIFAR-100 (91,7 %), Flowers (98,8 %) und drei anderen Transfer-Lern-Datensätzen, wobei sie jeweils um ein Vielfaches weniger Parameter haben. Der Quellcode ist unter https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet verfügbar.