Meta Co-Training: Zwei Perspektiven sind besser als eine

In vielen kritischen Szenarien der Computer Vision ist unbeschriftete Datenreichlich vorhanden, aber Beschriftungen sind rar und schwer zu erlangen. Daher haben sich halbüberwachte Lernverfahren, die unbeschriftete Daten nutzen, um die Leistung überwachter Klassifikatoren zu verbessern, in der jüngsten Literatur erhebliche Aufmerksamkeit verschafft. Eine repräsentative Klasse von halbüberwachten Algorithmen sind Co-Training-Algorithmen. Co-Training-Algorithmen nutzen zwei verschiedene Modelle, die auf unterschiedlichen, unabhängigen und ausreichenden Darstellungen oder "Sichten" der Daten zugreifen können, um gemeinsam bessere Vorhersagen zu treffen. Jedes dieser Modelle erstellt Pseudo-Beschriftungen für unbekannte Punkte, die verwendet werden, um das andere Modell zu verbessern. Wir zeigen, dass im häufig vorkommenden Fall, wo unabhängige Sichten nicht verfügbar sind, wir solche Sichten mit geringem Aufwand unter Verwendung vorab trainierter Modelle konstruieren können. Das Co-Training auf den konstruierten Sichten führt zu einer Leistungsverbesserung gegenüber jeder einzelnen Sicht, die wir konstruieren, und erreicht eine vergleichbare Leistung wie aktuelle Ansätze im Bereich des halbüberwachten Lernens. Wir präsentieren Meta-Co-Training, einen neuen halbüberwachten Lernalgorithmus, der gegenüber dem traditionellen Co-Training zwei Vorteile bietet: (i) das Lernen ist robuster bei einem großen Unterschied im Informationsgehalt der verschiedenen Sichten und (ii) es erfordert kein Neutrainieren von Grund auf bei jeder Iteration. Unsere Methode erreicht neue Standarts in der Leistung auf ImageNet-10%, wobei sie eine Fehlerrate von etwa 4,7% gegenüber früheren Arbeiten reduziert. Unsere Methode übertrifft zudem frühere halbüberwachte Arbeiten auf mehreren anderen fein differenzierten Bildklassifikationsdatensätzen.请注意,我已将“Meta Co-Training”翻译为“Meta-Co-Training”,以符合德语中复合名词的书写习惯。同时,“ImageNet-10%”保留了英文形式,因为这是该数据集的标准名称。