Ressourcenbewusste Personenerkennung bei unterschiedlichen Auflösungen

Nicht alle Personen sind gleichermaßen leicht zu identifizieren: In einigen Fällen reichen Farbstatistiken, während andere Fälle eine sorgfältige Analyse von hoch- und niedrigstufigen Details erfordern. Derzeitige Methoden zur Person-Wiederidentifikation (re-ID) verwenden jedoch für alle Fälle einheitliche hochstufige Einbettungen aus tiefen Faltungsnetzen. Dies kann ihre Genauigkeit bei schwierigen Beispielen einschränken oder sie für einfache Fälle unnötig teuer machen. Um dies zu beheben, präsentieren wir ein neues Modell zur Person-Wiederidentifikation, das effektive Einbettungen auf mehreren Schichten von Faltungsnetzen basiert und mit tiefer Überwachung trainiert wurde. Auf traditionellen Wiederidentifikations-Benchmarks verbessert unsere Methode erheblich die bisher besten Ergebnisse in allen fünf evaluierten Datensätzen. Anschließend schlagen wir zwei neue Formulierungen des Problems der Person-Wiederidentifikation unter Ressourcenbeschränkungen vor und zeigen, wie unser Modell die Genauigkeit und den Rechenaufwand unter Berücksichtigung dieser Beschränkungen effektiv abwägen kann. Der Quellcode und vortrainierte Modelle sind unter https://github.com/mileyan/DARENet verfügbar.