HyperAIHyperAI

Command Palette

Search for a command to run...

Domain-aware Triplet-Loss in der Domain-Generalisierung

Kaiyu Guo Brian Lovell

Zusammenfassung

Trotz erheblicher Fortschritte im Bereich der Objekterkennung durch die Entwicklung tiefer Lernverfahren bleiben mehrere Faktoren bestehen, die die Leistung tiefer Lernmodelle negativ beeinflussen. Eine dieser Herausforderungen ist der Domänenversatz, der durch Diskrepanzen zwischen den Verteilungen der Trainings- und Testdaten verursacht wird. In diesem Artikel konzentrieren wir uns auf das Problem der kompakten Merkmalsclustering im Kontext der Domänenverallgemeinerung, um den Embedding-Raum aus Multi-Domänen-Daten zu optimieren. Wir entwickeln eine domänenbewusste Triplet-Loss-Funktion für die Domänenverallgemeinerung, die dem Modell ermöglicht, nicht nur semantisch ähnliche Merkmale zu clustern, sondern auch Merkmale, die aus unterschiedlichen Domänen stammen, zu separieren. Im Gegensatz zu früheren Ansätzen, die sich auf die Ausrichtung der Verteilungen konzentrieren, ist unser Algorithmus darauf ausgelegt, die Domäneninformationen im Embedding-Raum zu streuen. Die Grundidee basiert auf der Annahme, dass Embedding-Merkmale aufgrund von Domäneninformationen clustering-fähig sind, was in dieser Arbeit sowohl mathematisch als auch empirisch unterstützt wird. Darüber hinaus stellen wir während unserer Untersuchung der Merkmalsclustering-Strategien in der Domänenverallgemeinerung fest, dass Faktoren, die die Konvergenz der Metrik-Lernverlustfunktion beeinflussen, von größerer Bedeutung sind als die vordefinierten Domänen. Um dieses Problem zu lösen, verwenden wir zwei Methoden zur Normalisierung des Embedding-Raums, um die interne Kovariatenverschiebung der Embedding-Merkmale zu reduzieren. Die Ablationsstudie belegt die Wirksamkeit unseres Ansatzes. Zudem zeigen die Experimente auf Benchmark-Datensätzen wie PACS, VLCS und Office-Home, dass unsere Methode Verfahren, die sich auf den Domänenunterschied konzentrieren, übertrifft. Insbesondere erzielen wir auf RegnetY-16 signifikant bessere Ergebnisse als aktuelle State-of-the-Art-Methoden auf den Benchmark-Datensätzen. Unser Quellcode wird unter https://github.com/workerbcd/DCT veröffentlicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp