MES-Loss: Verlustfunktion für metrisches Lernen mit wechselseitig gleichmäßigem Abstand
In den letzten Jahren hat die tiefe metrische Lernmethode aufgrund ihrer vielfältigen Anwendungen, wie beispielsweise Clustering und Bildretrieval, erhebliche Aufmerksamkeit erhalten. Dank des Erfolgs des tiefen Lernens (DL) wurden zahlreiche tiefe metrische Lernmethoden (DML) vorgeschlagen. Neuronale Netze (NNs) nutzen DML-Verlustfunktionen, um eine Abbildungsfunktion zu lernen, die Proben in einen hochdiskriminativen, niedrigdimensionalen Merkmalsraum abbildet, wodurch die Ähnlichkeit zwischen Paaren von Proben auf solch einer Mannigfaltigkeit effizient gemessen werden kann. Die meisten bestehenden Methoden bemühen sich typischerweise, die Diskriminativkraft des NNs durch Verbesserung der intra-klassen Kompaktheit im hochdimensionalen Merkmalsraum zu steigern. Allerdings berücksichtigen sie explizit keine Einschränkungen zur Verbesserung der inter-klassen Trennbarkeit. In diesem Artikel stellen wir eine neue zusammengesetzte DML-Verlustfunktion vor, die neben der intra-klassen Kompaktheit explizite Regulierungen beinhaltet, um die optimale inter-klassen Trennung durch eine gegenseitig gleichmäßige Verteilung der Klassenzentren zu erreichen. Die vorgeschlagene DML-Verlustfunktion erzielte state-of-the-art Ergebnisse bei Clustering- und Bildretrieval-Aufgaben auf zwei realen Datensätzen.