Hardware-basiertes tief verschachteltes Einbettungslernen

Auf der Welle tiefer neuronaler Netze hat sich das tiefere Metriklernen (deep metric learning) ebenfalls vielversprechende Ergebnisse bei verschiedenen Aufgaben unter Verwendung von Triplet-Netzwerken oder Siamese-Netzwerken erzielt. Obwohl das grundlegende Ziel, Bilder derselben Kategorie näher zusammenzubringen als Bilder verschiedener Kategorien, intuitiv erscheint, ist eine direkte Optimierung aufgrund der quadratischen oder kubischen Stichprobengröße schwierig. Um dieses Problem zu lösen, wird häufig die sogenannte "Schwierigkeitsbeispiel-Auswahl" (hard example mining) verwendet, die sich nur auf einen Teil der als besonders schwierig eingestuften Beispiele konzentriert. Allerdings ist "schwierig" relativ zum Modell definiert: Komplexe Modelle betrachten die meisten Beispiele als einfach und einfache Modelle die meisten Beispiele als schwierig – beides ist für das Training nicht optimal. Die Beispiele weisen auch unterschiedliche Schwierigkeitsgrade auf; es ist daher schwer, ein Modell mit der richtigen Komplexität zu definieren und geeignete schwierige Beispiele auszuwählen. Dies motiviert uns, eine Reihe von Modellen mit unterschiedlicher Komplexität in einem kaskadenartigen Ansatz zu kombinieren und die Schwierigkeitsbeispiele anpassungsfähig zu selektieren. Ein Beispiel wird durch eine Serie von Modellen mit steigernder Komplexität bewertet und aktualisiert nur jene Modelle, die das Beispiel als schwierigen Fall betrachten. Wir evaluieren unsere Methode anhand der Datensätze CARS196, CUB-200-2011, Stanford Online Products, VehicleID und DeepFashion. Unsere Methode übertrifft die StandesderTechnik-Methoden (state-of-the-art methods) um einen großen Marginalwert.