HyperAIHyperAI
vor 17 Tagen

Feinabgestimmte Erkennung: Berücksichtigung subtiler Unterschiede zwischen ähnlichen Klassen

Guolei Sun, Hisham Cholakkal, Salman Khan, Fahad Shahbaz Khan, Ling Shao
Feinabgestimmte Erkennung: Berücksichtigung subtiler Unterschiede zwischen ähnlichen Klassen
Abstract

Die zentrale Voraussetzung für Aufgaben der feinkörnigen Klassifikation besteht darin, auf subtile, diskriminative Details zu achten, die die untergeordneten Klassen voneinander unterscheiden. Wir stellen fest, dass bestehende Methoden diese Anforderung implizit behandeln und darauf vertrauen, dass ein datengetriebener Prozess ermittelt, was eine untergeordnete Klasse von den anderen unterscheidet. Dies führt zu zwei wesentlichen Einschränkungen: Erstens konzentriert das Netzwerk sich auf die offensichtlichsten Unterschiede zwischen den Klassen und vernachlässigt feinere, interklassenbezogene Variationen. Zweitens wird die Wahrscheinlichkeit einer falschen Klassifikation eines gegebenen Musters in irgendeiner der negativen Klassen als gleich angenommen, während in der Praxis Verwechslungen in der Regel nur zwischen den am ähnlichsten Klassen auftreten. In diesem Beitrag schlagen wir vor, das Netzwerk explizit dazu zu zwingen, die subtilen Unterschiede zwischen eng verwandten Klassen zu erkennen. In diesem Zusammenhang führen wir zwei zentrale Innovationen ein, die problemlos in bestehende end-to-end Deep-Learning-Pipelines integriert werden können. Auf der einen Seite stellen wir einen Diversifizierungsblock vor, der die auffälligsten Merkmale eines Eingabemusters maskiert, um das Netzwerk dazu zu zwingen, feinere Hinweise für die korrekte Klassifikation zu nutzen. Gleichzeitig führen wir eine Gradient-Boosting-Verlustfunktion ein, die sich ausschließlich auf die verwirrenden Klassen für jedes einzelne Beispiel konzentriert und daher schnell in Richtung derjenigen Stelle auf der Verlustfläche fortschreitet, die diese Ambiguitäten auflöst. Die Synergie dieser beiden Bausteine unterstützt das Netzwerk dabei, effektivere Merkmalsrepräsentationen zu lernen. Umfassende Experimente wurden auf fünf anspruchsvollen Datensätzen durchgeführt. Unser Ansatz erreicht auf allen fünf Datensätzen eine bessere Leistung als bestehende Methoden unter vergleichbaren experimentellen Bedingungen.