Command Palette
Search for a command to run...
RepVGG: VGG-artige ConvNets erneut großartig machen
RepVGG: VGG-artige ConvNets erneut großartig machen
Xiaohan Ding Xiangyu Zhang Ningning Ma Jungong Han Guiguang Ding Jian Sun
Zusammenfassung
Wir präsentieren eine einfache, aber leistungsstarke Architektur eines convolutionalen neuronalen Netzes, deren Inferenzzeit-Struktur ähnlich wie VGG aufgebaut ist und ausschließlich aus einer Stapelung von 3×3-Faltungsschichten und ReLU-Aktivierungen besteht, während das Modell während des Trainings eine mehrästige Topologie aufweist. Diese Entkopplung zwischen Trainings- und Inferenzzeit-Architektur wird durch eine strukturelle Re-Parameterisierung erreicht, wodurch das Modell als RepVGG bezeichnet wird. Auf ImageNet erreicht RepVGG eine Top-1-Accuracy von über 80 %, was, soweit uns bekannt ist, erstmals für ein „plain“-Modell gelungen ist. Auf einer NVIDIA 1080Ti GPU läuft RepVGG um 83 % schneller als ResNet-50 oder um 101 % schneller als ResNet-101, bei gleichzeitig höherer Genauigkeit und einem vorteilhaften Kompromiss zwischen Genauigkeit und Geschwindigkeit im Vergleich zu aktuellen Spitzenmodellen wie EfficientNet und RegNet. Der Quellcode und die trainierten Modelle sind unter https://github.com/megvii-model/RepVGG verfügbar.