Mehrfach-komplementäres und unlabeledes Lernen für beliebige Verlustfunktionen und Modelle

Kürzlich wurde ein schwach überwachter Lernframework namens Komplementärlabel-Lernen vorgestellt, bei dem jeder Datensatz mit einem einzigen Komplementärlabel versehen ist, das eine der Klassen angibt, zu der der Datensatz nicht gehört. Allerdings können die bestehenden Methoden des Komplementärlabel-Lernens nicht von leicht zugänglichen unbeschrifteten Beispielen oder Beispielen mit mehreren Komplementärlabels profitieren, die informativer sind. Um diese Einschränkungen zu überwinden, schlagen wir im vorliegenden Artikel einen neuartigen Rahmen für mehrfaches Komplementärlabel- und unbeschriftetes Lernen vor, der eine verzerrungsfreie Schätzung des Klassifikationsrisikos aus Beispielen mit beliebig vielen Komplementärlabels sowie aus unbeschrifteten Beispielen ermöglicht, unabhängig von beliebigen Verlustfunktionen und Modellen. Zunächst leiten wir einen verzerrungsfreien Schätzer des Klassifikationsrisikos aus Beispielen mit mehreren Komplementärlabels ab und verbessern diesen Schätzer anschließend, indem wir unbeschriftete Beispiele in die Risikoformulierung einbeziehen. Die abgeleiteten Schätzfehlergrenzen zeigen, dass die vorgeschlagenen Methoden die optimale parametrische Konvergenzrate erreichen. Schließlich belegen Experimente an linearen und tiefen Modellen die Wirksamkeit unserer Ansätze.