Command Palette
Search for a command to run...
Circle Loss: Eine einheitliche Perspektive der Optimierung von Paarähnlichkeit
Circle Loss: Eine einheitliche Perspektive der Optimierung von Paarähnlichkeit
Yifan Sun Changmao Cheng Yuhan Zhang Chi Zhang Liang Zheng Zhongdao Wang Yichen Wei
Zusammenfassung
Dieser Artikel präsentiert einen Ansatz zur Optimierung von Paarähnlichkeiten im Kontext des Deep Feature Learning, der darauf abzielt, die Inner-Klassen-Ähnlichkeit sp zu maximieren und die Zwischen-Klassen-Ähnlichkeit sn zu minimieren. Wir beobachten, dass die Mehrheit der gängigen Verlustfunktionen – einschließlich des Triplet-Loss und des Softmax-Plus-Cross-Entropy-Loss – sn und sp in Ähnlichkeitspaaren integrieren und versuchen, (sn−sp) zu minimieren. Diese Optimierungsstrategie weist jedoch eine geringe Flexibilität auf, da die Strafstärke für jedes einzelne Ähnlichkeitsmaß auf gleichbleibend festgelegt ist. Unser Ansatz geht davon aus, dass Ähnlichkeitswerte, die stark von ihrem optimalen Wert abweichen, stärker berücksichtigt werden sollten. Um dies zu erreichen, führen wir eine einfache Neugewichtung jeder Ähnlichkeit ein, um die weniger optimierten Ähnlichkeitswerte hervorzuheben. Dies führt zu einem neuen Verlust, dem Circle-Loss, benannt aufgrund seiner kreisförmigen Entscheidungsgrenze. Der Circle-Loss verfügt über eine einheitliche Formel, die zwei grundlegende Ansätze des Deep Feature Learning abdeckt: das Lernen mit Klassenlabels und das Lernen mit Paarlabels. Theoretisch zeigen wir, dass der Circle-Loss gegenüber Verlustfunktionen, die (sn−sp) optimieren, eine flexiblere Optimierungsstrategie bietet und ein präziseres Konvergenzziel ermöglicht. Experimentell demonstrieren wir die Überlegenheit des Circle-Loss auf einer Vielzahl von Aufgaben im Bereich des Deep Feature Learning. In der Gesichtserkennung, der Person-Re-Identification sowie mehreren feinkörnigen Bildretrieval-Datensätzen erreicht der Circle-Loss Leistungen, die mit dem Stand der Technik vergleichbar sind.