Stabile Clusterverteidigung für tiefes Clustern

Tiefe Clustering kann die Darstellungen von Instanzen (d.h., Darstellungslernen) und gleichzeitig die inhärente Datenverteilung (d.h., Clustering) erforschen, was eine überlegene Leistung im Vergleich zu herkömmlichen Clusterverfahren mit vorgegebenen Merkmalen aufweist. Allerdings impliziert das gekoppelte Ziel eine triviale Lösung, bei der alle Instanzen zu einheitlichen Merkmalen kollabieren. Um dieser Herausforderung zu begegnen, wurde eine zweistufige Trainingsstrategie entwickelt, um das Verfahren zu entkoppeln. Dabei wird zunächst eine zusätzliche Vortrainingsphase für das Darstellungslernen eingeführt und danach das erhaltene Modell für das Clustering feinjustiert. Gleichzeitig werden einstufige Methoden hauptsächlich für das Darstellungslernen entwickelt und nicht für das Clustering, wobei verschiedene Einschränkungen für Clusterzuordnungen entworfen wurden, um explizit Kollaps zu vermeiden. Trotz des Erfolgs dieser Methoden wurde ein angemessenes Lernziel, das speziell für tiefes Clustering zugeschnitten ist, bisher nicht ausreichend untersucht.In dieser Arbeit zeigen wir zunächst, dass die weit verbreitete Diskriminationsaufgabe im überwachten Lernen für einstufiges Clustering instabil ist, da es an Bodenwahrheitslabels und positiven Instanzen für bestimmte Cluster in jedem Minibatch mangelt. Um dieses Problem abzumildern, wird eine neuartige stabile Clusterdiskriminationsaufgabe (SeCu) vorgeschlagen und ein neuer Schwellwertbewusster Clusterkriterium kann entsprechend abgeleitet werden. Des Weiteren wird eine globale Entropie-Einschränkung für Clusterzuordnungen mit effizienter Optimierung untersucht. Ausführliche Experimente wurden an Standarddatensätzen und ImageNet durchgeführt. SeCu erreicht den aktuellen Stand der Technik auf allen Datensätzen, was die Effektivität des einstufigen tiefen Clusterings unterstreicht. Der Quellcode ist unter \url{https://github.com/idstcv/SeCu} verfügbar.