HyperAIHyperAI
vor 2 Monaten

Komplementäre-Label-Lernen für beliebige Verlustfunktionen und Modelle

Takashi Ishida; Gang Niu; Aditya Krishna Menon; Masashi Sugiyama
Komplementäre-Label-Lernen für beliebige Verlustfunktionen und Modelle
Abstract

Im Gegensatz zum Standard-Klassifikationsparadigma, bei dem jeder Trainingsmuster die wahre Klasse zugeordnet wird, verwendet das Paradigma des komplementären Label-Lernens nur Trainingsmuster, die jeweils mit einem komplementären Label versehen sind. Dieses Label gibt lediglich eine der Klassen an, zu denen das Muster nicht gehört. Das Ziel dieser Arbeit ist es, ein neues Framework für das Lernen mit komplementären Labels herzuleiten, das einen unverzerrten Schätzer des Klassifikationsrisikos für beliebige Verlustfunktionen und Modelle bereitstellt – alle bisherigen Methoden sind daran gescheitert, dieses Ziel zu erreichen. Dies ist nicht nur förderlich für die Lernphase, sondern ermöglicht auch die Auswahl von Modellen/Hyperparametern (durch Kreuzvalidierung), ohne dass irgendeine gewöhnliche validierungsdaten mit korrekten Labels erforderlich wären. Dabei können lineare/nichtlineare Modelle oder konvexe/nichtkonvexe Verlustfunktionen verwendet werden. Wir verbessern den Risikoschätzer durch eine nichtnegative Korrektur und ein Gradientenaufstiegsverfahren und demonstrieren seine Überlegenheit durch Experimente.

Komplementäre-Label-Lernen für beliebige Verlustfunktionen und Modelle | Neueste Forschungsarbeiten | HyperAI