HyperAIHyperAI
vor 17 Tagen

Big Transfer (BiT): Allgemeine visuelle Darstellungslernung

Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Joan Puigcerver, Jessica Yung, Sylvain Gelly, Neil Houlsby
Big Transfer (BiT): Allgemeine visuelle Darstellungslernung
Abstract

Die Übertragung vortrainierter Darstellungen verbessert die Stichprobeneffizienz und vereinfacht die Hyperparameterabstimmung beim Training tiefer neuronalen Netze für die Bildverarbeitung. Wir überprüfen erneut das Paradigma des Vortrainings auf großen, beschrifteten Datensätzen und des Feintunings des Modells auf einer Zielaufgabe. Wir skalieren das Vortraining aus, und schlagen ein einfaches Rezept vor, das wir Big Transfer (BiT) nennen. Durch die Kombination einiger sorgfältig ausgewählter Komponenten und die Übertragung mittels einer einfachen Heuristik erreichen wir eine starke Leistung auf über 20 Datensätzen. BiT erzielt eine herausragende Performance über eine überraschend breite Palette von Datenszenarien – von jeweils einem Beispiel pro Klasse bis hin zu insgesamt 1 Mio. Beispielen. BiT erreicht eine Top-1-Accuracy von 87,5 % auf ILSVRC-2012, 99,4 % auf CIFAR-10 und 76,3 % auf dem 19-Aufgaben-Visual Task Adaptation Benchmark (VTAB). Bei kleinen Datensätzen erzielt BiT eine Genauigkeit von 76,8 % auf ILSVRC-2012 mit jeweils 10 Beispielen pro Klasse und 97,0 % auf CIFAR-10 mit jeweils 10 Beispielen pro Klasse. Wir führen eine detaillierte Analyse der zentralen Komponenten durch, die zur hohen Übertragungsleistung beitragen.

Big Transfer (BiT): Allgemeine visuelle Darstellungslernung | Neueste Forschungsarbeiten | HyperAI