HyperAIHyperAI
vor 17 Tagen

RepVGG: VGG-artige ConvNets erneut großartig machen

Xiaohan Ding, Xiangyu Zhang, Ningning Ma, Jungong Han, Guiguang Ding, Jian Sun
RepVGG: VGG-artige ConvNets erneut großartig machen
Abstract

Wir präsentieren eine einfache, aber leistungsstarke Architektur eines convolutionalen neuronalen Netzes, deren Inferenzzeit-Struktur ähnlich wie VGG aufgebaut ist und ausschließlich aus einer Stapelung von 3×3-Faltungsschichten und ReLU-Aktivierungen besteht, während das Modell während des Trainings eine mehrästige Topologie aufweist. Diese Entkopplung zwischen Trainings- und Inferenzzeit-Architektur wird durch eine strukturelle Re-Parameterisierung erreicht, wodurch das Modell als RepVGG bezeichnet wird. Auf ImageNet erreicht RepVGG eine Top-1-Accuracy von über 80 %, was, soweit uns bekannt ist, erstmals für ein „plain“-Modell gelungen ist. Auf einer NVIDIA 1080Ti GPU läuft RepVGG um 83 % schneller als ResNet-50 oder um 101 % schneller als ResNet-101, bei gleichzeitig höherer Genauigkeit und einem vorteilhaften Kompromiss zwischen Genauigkeit und Geschwindigkeit im Vergleich zu aktuellen Spitzenmodellen wie EfficientNet und RegNet. Der Quellcode und die trainierten Modelle sind unter https://github.com/megvii-model/RepVGG verfügbar.

RepVGG: VGG-artige ConvNets erneut großartig machen | Neueste Forschungsarbeiten | HyperAI