HyperAIHyperAI
vor 7 Tagen

Recall@k-Surrogatverlust mit großen Batch-Größen und Similarity Mixup

Yash Patel, Giorgos Tolias, Jiri Matas
Recall@k-Surrogatverlust mit großen Batch-Größen und Similarity Mixup
Abstract

Diese Arbeit konzentriert sich auf die Lernung tiefer visueller Repräsentationsmodelle für die Retrieval-Aufgabe durch die Untersuchung der Wechselwirkung zwischen einer neuen Verlustfunktion, der Batch-Größe und einem neuartigen Regularisierungsansatz. Die direkte Optimierung einer Bewertungsmetrik mittels Gradientenabstieg ist nicht möglich, wenn die Metrik nicht differenzierbar ist – was für die Recall-Metrik im Retrieval der Fall ist. In dieser Arbeit wird eine differenzierbare Ersatzverlustfunktion für die Recall-Metrik vorgestellt. Unter Verwendung einer Implementierung, die die Hardwarebeschränkungen des GPU-Speichers umgeht, ermöglicht das Verfahren das Training mit einer sehr großen Batch-Größe, was entscheidend ist für Metriken, die auf der gesamten Retrieval-Datenbank berechnet werden. Unterstützt wird dies durch eine effiziente Mixup-Regulierung, die auf paarweisen skalarer Ähnlichkeit operiert und die effektive Batch-Größe zusätzlich erhöht. Das vorgeschlagene Verfahren erreicht state-of-the-art-Leistung in mehreren Bildretrieval-Benchmarks bei Anwendung im Kontext tiefer Metrik-Lernverfahren. Für die Instanz-level-Erkennung übertrifft das Verfahren vergleichbare Ansätze, die auf einer Approximation der durchschnittlichen Präzision trainieren.

Recall@k-Surrogatverlust mit großen Batch-Größen und Similarity Mixup | Neueste Forschungsarbeiten | HyperAI