HyperAIHyperAI
vor 11 Tagen

MiCE: Mixture of Contrastive Experts für unsupervisiertes Bildclustering

Tsung Wei Tsai, Chongxuan Li, Jun Zhu
MiCE: Mixture of Contrastive Experts für unsupervisiertes Bildclustering
Abstract

Wir präsentieren Mixture of Contrastive Experts (MiCE), einen einheitlichen probabilistischen Clustering-Framework, der gleichzeitig die diskriminativen Repräsentationen nutzt, die durch Kontrastive Lernverfahren erlernt wurden, sowie die semantischen Strukturen, die durch ein latentes Mischmodell erfasst werden. Angelehnt an das Mixture-of-Experts-Paradigma verwendet MiCE eine Gating-Funktion, um eine unbeschriftete Datensatz in Teilmengen gemäß den latenten Semantiken zu partitionieren, und mehrere Experten, die jeweils unterschiedliche Teilmengen von Instanzen im Sinne kontrastiven Lernens unterscheiden. Um die nichttrivialen Inferenz- und Lernprobleme, die durch die latenten Variablen verursacht werden, zu lösen, entwickeln wir zudem eine skalierbare Variante des Erwartungswert-Maximierungsalgorithmus (Expectation-Maximization, EM) für MiCE und liefern einen Beweis für die Konvergenz. Empirisch evaluieren wir die Clustering-Leistung von MiCE auf vier weit verbreiteten Datensätzen natürlicher Bilder. MiCE erreicht signifikant bessere Ergebnisse als verschiedene vorherige Methoden sowie eine starke Baseline des kontrastiven Lernens.

MiCE: Mixture of Contrastive Experts für unsupervisiertes Bildclustering | Neueste Forschungsarbeiten | HyperAI