HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble of Averages: Verbesserung der Modellauswahl und Leistungssteigerung bei der Domänenverallgemeinerung

Devansh Arpit Huan Wang Yingbo Zhou Caiming Xiong

Zusammenfassung

In Domain Generalization (DG)-Szenarien zeigen Modelle, die unabhängig auf einer gegebenen Menge von Trainingsdomänen trainiert wurden, notoriously chaotisches Verhalten auf Testdomänen mit veränderter Verteilung, wobei die Stochastik in der Optimierung (z. B. durch den Zufallssamen) eine große Rolle spielt. Dies macht tiefe Lernmodelle in realen Anwendungen unzuverlässig. Wir zeigen zunächst, dass dieses chaotische Verhalten bereits entlang der Optimierungstrajektorie eines einzelnen Modells auftritt, und schlagen einen einfachen Modell-Averaging-Protokoll vor, das sowohl die Domain Generalization erheblich verbessert als auch die Auswirkungen der Stochastik reduziert, indem es die Rangkorrelation zwischen der Validierungs-Genauigkeit innerhalb der Domäne und der Testgenauigkeit außerhalb der Domäne erhöht – eine entscheidende Voraussetzung für zuverlässiges Early Stopping. Ausnutzend unsere Beobachtung zeigen wir, dass anstelle der Ensembles unvermittelter Modelle (wie es in der Praxis üblich ist), die Ensembles von beweglichen Durchschnittsmodellen (EoA) aus unabhängigen Laufzeiten die Leistung weiter steigern. Theoretisch erklären wir den Leistungsanstieg durch Ensembling und Modell-Averaging, indem wir das wohl bekannte Bias-Variance-Trade-off an den Kontext der Domain Generalization anpassen. Auf dem DomainBed-Benchmark erreicht unser Ensemble von Durchschnittsmodellen mit vortrainiertem ResNet-50 eine durchschnittliche Genauigkeit von 68,0%68{,}0\%68,0%, was etwa 4%4\%4% über der Leistung des herkömmlichen ERM (ohne Averaging/Ensembling) liegt. Bei Verwendung eines vortrainierten RegNetY-16GF erreicht es eine durchschnittliche Genauigkeit von 76,6%76{,}6\%76,6%, was eine Steigerung um 6%6\%6% gegenüber dem Standard-ERM darstellt. Unser Code ist unter https://github.com/salesforce/ensemble-of-averages verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp