MoPro: Webly Supervised Learning mit Impuls-Prototypen

Wir schlagen eine webbasiert überwachte Darstellungslernmethode vor, die weder die Skalierbarkeitsprobleme der Annotation bei überwachtem Lernen noch die Rechenkostenprobleme bei selbstüberwachtem Lernen aufweist. Die meisten bestehenden Ansätze im Bereich webbasiert überwachtes Darstellungslernen verwenden eine herkömmliche überwachte Lernmethode, ohne die weit verbreitete Rauschkomponente in den Trainingsdaten zu berücksichtigen, während die meisten vorherigen Methoden zur Behandlung von Label-Rauschen für große, realwelttypische Datenmengen mit Rauschen weniger effektiv sind. Wir stellen Momentum-Prototypen (MoPro) vor, eine einfache kontrastive Lernmethode, die Online-Korrektur von fehlerhaften Labels, die Entfernung von Ausreißern aus der Verteilung (out-of-distribution samples) und gleichzeitig Darstellungslernen ermöglicht. MoPro erreicht eine state-of-the-art Leistung auf WebVision, einer schwach beschrifteten, rauschbehafteten Datensammlung. Zudem zeigt MoPro eine überlegene Leistung, wenn das vortrainierte Modell auf nachfolgende Aufgaben im Bereich Bildklassifikation und Objektdetektion übertragen wird: Es übertrifft das auf ImageNet überwacht vortrainierte Modell um +10,5 bei der 1-Shot-Klassifikation auf VOC und erreicht bei der Feinabstimmung auf nur 1 % der gelabelten ImageNet-Proben eine Leistung, die um +17,3 über dem besten selbstüberwachten vortrainierten Modell liegt. Darüber hinaus ist MoPro robuster gegenüber Verteilungsverschiebungen. Der Quellcode und die vortrainierten Modelle sind unter https://github.com/salesforce/MoPro verfügbar.