LSTD: Ein Low-Shot-Transfer-Detektor für Objekterkennung

Neuere Fortschritte im Bereich der Objekterkennung werden hauptsächlich durch tiefes Lernen mit groß angelegten Erkennungsbenchmarks getrieben. Allerdings ist der vollständig annotierte Trainingsdatensatz für eine Ziel-Erkennungsaufgabe oft begrenzt, was die Leistung von tiefen Detektoren beeinträchtigen kann. Um dieser Herausforderung zu begegnen, schlagen wir in diesem Artikel einen neuen Low-Shot-Transfer-Detektor (LSTD) vor, bei dem wir umfangreiches Wissen aus dem Quellbereich nutzen, um einen effektiven Detektor für den Zielbereich mit sehr wenigen Trainingsbeispielen zu konstruieren. Die wichtigsten Beiträge sind wie folgt beschrieben:Erstens entwickeln wir eine flexible tiefe Architektur des LSTD, um die Transferprobleme bei der Low-Shot-Erkennung zu mildern. Diese Architektur kann die Vorteile sowohl von SSD als auch von Faster R-CNN in einem einheitlichen tiefen Framework integrieren.Zweitens führen wir einen neuen regularisierten Transfer-Lernframework für die Low-Shot-Erkennung ein, bei dem Regularisierungen des Transferring-Wissens (TK) und des Hintergrunddämpfens (BD) vorgeschlagen werden, um das Objektwissen jeweils aus dem Quell- und Zielbereich zu nutzen und so das Feinjustieren mit wenigen Zielbildern weiter zu verbessern.Schließlich testen wir unseren LSTD an einer Reihe herausfordernder Low-Shot-Erkennungsversuche, bei denen der LSTD andere state-of-the-art Ansätze übertrifft. Die Ergebnisse zeigen, dass der LSTD ein bevorzugter tiefer Detektor für Low-Shot-Szenarien ist.