Verbesserung der K-Means-Clustering-Leistung durch entkoppelte interne Darstellungen

Tiefen-Clustering-Algorithmen kombinieren Repräsentationslernen und Clustering durch die gemeinsame Optimierung einer Clustering-Verlustfunktion und einer nicht-Clustering-Verlustfunktion. In solchen Ansätzen wird ein tiefes neuronales Netzwerk sowohl zum Repräsentationslernen als auch zur Clustering-Aufgabe eingesetzt. Anstatt dieses Rahmenwerk zu verfolgen, um die Clustering-Leistung zu verbessern, schlagen wir einen einfacheren Ansatz vor, der die Verflechtung der gelernten latenzrepräsentativen Codierung eines Autoencoders optimiert. Wir definieren Verflechtung als die Nähe von Punktpaaren derselben Klasse oder Struktur im Vergleich zu Punktpaaren verschiedener Klassen oder Strukturen. Zur Messung der Verflechtung von Datapunkten verwenden wir die weiche Nachbarverlustfunktion und erweitern sie durch Einführung eines abkühlenden Temperaturparameters. Mit unserem vorgeschlagenen Ansatz erreichte die Test-Clustering-Genauigkeit auf dem MNIST-Datensatz 96,2 %, auf dem Fashion-MNIST-Datensatz 85,6 % und auf dem EMNIST Balanced-Datensatz 79,2 %, wodurch unsere Basismodelle übertroffen werden.