HyperAIHyperAI
vor 17 Tagen

AutoMix: Die Kraft von Mixup für stärkere Klassifikatoren entschleiern

Zicheng Liu, Siyuan Li, Di Wu, Zihan Liu, Zhiyuan Chen, Lirong Wu, Stan Z. Li
AutoMix: Die Kraft von Mixup für stärkere Klassifikatoren entschleiern
Abstract

Datenaugmentierung durch Datenmixing hat sich als effektiv erwiesen, um die Generalisierungsfähigkeit tiefer neuronaler Netze zu verbessern. Während frühere Methoden Proben durch handkodierte Strategien (z. B. lineare Interpolation) mischen, nutzen neuere Ansätze Salienzinformationen, um die gemischten Proben und Labels über komplexe Offline-Optimierungsverfahren zu verknüpfen. Dabei entsteht jedoch ein Kompromiss zwischen präzisen Mischstrategien und der Komplexität der Optimierung. Um diese Herausforderung zu bewältigen, schlagen wir einen neuen automatischen Mixup-Ansatz (AutoMix) vor, bei dem die Mixup-Strategie parametrisiert ist und direkt auf das endgültige Klassifikationsziel abzielt. Konkret reformuliert AutoMix das Mixup-Klassifikationsproblem in zwei Teilaufgaben (nämlich die Generierung gemischter Proben und die Mixup-Klassifikation), die jeweils mit speziellen Unter-Netzwerken bearbeitet werden und in einem zweistufigen Optimierungsrahmen gelöst werden. Zur Generierung wird ein lernbarer, leichtgewichtiger Mixup-Generator, der Mix Block, entworfen, der gemischte Proben erzeugt, indem er patchweise Beziehungen modelliert und direkt durch die entsprechenden gemischten Labels überwacht wird. Um die Degradation und Instabilität bei der zweistufigen Optimierung zu vermeiden, führen wir zudem eine Momentum-Pipeline ein, um AutoMix end-to-end zu trainieren. Umfassende Experimente an neun Bildbenchmarks belegen die Überlegenheit von AutoMix gegenüber den aktuellen State-of-the-Art-Verfahren in verschiedenen Klassifikationsszenarien und nachgeschalteten Aufgaben.