HyperAIHyperAI

Command Palette

Search for a command to run...

ResNet kehrt zurück: Ein verbessertes Trainingsverfahren in timm

Ross Wightman Hugo Touvron Hervé Jégou

Zusammenfassung

Die einflussreichen Residual Networks, die von He et al. entworfen wurden, bleiben in zahlreichen wissenschaftlichen Publikationen die Goldstandard-Architektur. Sie dienen typischerweise als Standardarchitektur in Studien oder als Baseline bei der Einführung neuer Architekturen. Dennoch ist seit der Einführung der ResNet-Architektur im Jahr 2015 erheblicher Fortschritt bei den besten Praktiken für das Training von neuronalen Netzen erzielt worden. Neuere Optimierungsverfahren und Datenaugmentierungsstrategien haben die Wirksamkeit der Trainingsrezepte erheblich gesteigert. In diesem Paper re-evaluieren wir die Leistung der ursprünglichen ResNet-50, wenn sie mit einem Verfahren trainiert wird, das diese Fortschritte integriert. Wir stellen kompetitive Trainingsparameter und vortrainierte Modelle in der open-source-Bibliothek timm zur Verfügung, mit der Hoffnung, dass sie künftige Arbeiten als verbesserte Baselines dienen werden. So erreicht eine ursprüngliche ResNet-50 mit unserem anspruchsvolleren Trainingsansatz auf ImageNet-val bei einer Auflösung von 224×224 eine Top-1-Accuracy von 80,4 %, ohne zusätzliche Daten oder Distillation. Außerdem berichten wir über die Leistung von gängigen Modellen, die mit unserem Trainingsverfahren erzielt wurde.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
ResNet kehrt zurück: Ein verbessertes Trainingsverfahren in timm | Paper | HyperAI