HyperAIHyperAI
vor einem Monat

Offene Mengen-Domänenanpassung: Theoretische Schranke und Algorithmus

Zhen Fang; Jie Lu; Feng Liu; Junyu Xuan; Guangquan Zhang
Offene Mengen-Domänenanpassung: Theoretische Schranke und Algorithmus
Abstract

Das Ziel der unüberwachten Domänenanpassung ist es, das Wissen aus einer etikettierten (Quell-)Domäne zu nutzen, um die Lernleistung eines Modells in einer nicht-etikettierten (Ziel-)Domäne zu verbessern – die grundlegende Strategie besteht darin, die Auswirkungen von Unterschieden zwischen den beiden Verteilungen zu mildern. Die meisten existierenden Algorithmen können nur unüberwachte geschlossene Mengen-Domänenanpassung (UCSDA) behandeln, d.h., sie gehen davon aus, dass Quell- und Ziel-Domäne denselben Satz von Klassenlabels teilen. In dieser Arbeit adressieren wir eine herausforderndere, aber realistischere Situation: unüberwachte offene Mengen-Domänenanpassung (UOSDA), bei der die Ziel-Domäne unbekannte Klassen enthält, die in der Quell-Domäne nicht vorkommen. Dies ist die erste Studie, die eine Lernschranke für offene Mengen-Domänenanpassung bereitstellt, was wir durch eine theoretische Untersuchung des Risikos des Zielklassifizierers auf unbekannten Klassen erreichen. Die vorgeschlagene Lernschranke enthält einen besonderen Term, nämlich den offenen Mengendifferenz (open set difference), der das Risiko des Zielklassifizierers auf unbekannten Klassen widerspiegelt. Darüber hinaus präsentieren wir einen neuartigen und theoretisch fundierten unüberwachten Algorithmus für offene Mengen-Domänenanpassung, genannt Verteilungsangleichung mit offener Differenz (DAOD), der auf der Regularisierung dieser offenen Mengendifferenz-Schranke basiert. Experimente mit mehreren Benchmark-Datensätzen zeigen die überlegene Leistung des vorgeschlagenen UOSDA-Verfahrens im Vergleich zu den besten Methoden in der Literatur.

Offene Mengen-Domänenanpassung: Theoretische Schranke und Algorithmus | Neueste Forschungsarbeiten | HyperAI