HyperAIHyperAI
vor 17 Tagen

Lernen visueller Repräsentationen für Transfer Learning durch Unterdrückung von Textur

Shlok Mishra, Anshul Shah, Ankan Bansal, Janit Anjaria, Jonghyun Choi, Abhinav Shrivastava, Abhishek Sharma, David Jacobs
Lernen visueller Repräsentationen für Transfer Learning durch Unterdrückung von Textur
Abstract

Neuere Literatur hat gezeigt, dass Merkmale, die aus einer überwachten Schulung von CNNs gewonnen werden, tendenziell die Textur überbetonen, anstatt hochwertige informationsreiche Inhalte zu kodieren. Insbesondere im selbstüberwachten Lernen kann die Textur als niedrigstufiger Hinweis zu „Kurzschlüssen“ führen, die verhindern, dass das Netzwerk höhere, abstrakte Darstellungen erlernt. Um diese Probleme anzugehen, schlagen wir vor, klassische Methoden basierend auf anisotroper Diffusion einzusetzen, um das Training mit Bildern zu erweitern, bei denen die Textur unterdrückt ist. Diese einfache Methode hilft dabei, wichtige Kanteninformationen beizubehalten, während gleichzeitig die Textur unterdrückt wird. Wir zeigen empirisch, dass unsere Methode state-of-the-art Ergebnisse bei Objekterkennung und Bildklassifikation erzielt – sowohl bei überwachten als auch bei selbstüberwachten Lernaufgaben wie MoCoV2 oder Jigsaw – auf acht unterschiedlichen Datensätzen. Unser Ansatz erweist sich besonders effektiv bei Transfer-Lern-Aufgaben, wobei wir eine verbesserte Leistung auf fünf Standard-Datensätzen für Transfer-Lernen beobachten konnten. Die erheblichen Verbesserungen (bis zu 11,49 %) auf dem Sketch-ImageNet-Datensatz, dem DTD-Datensatz sowie zusätzliche visuelle Analysen mittels Aufmerksamkeitskarten (Saliency Maps) deuten darauf hin, dass unsere Methode zur Entwicklung besserer, transferierbarer Darstellungen beiträgt.