HyperAIHyperAI
vor 3 Monaten

Temporale-Kontext-verbesserte Detektion stark verdeckter Fußgänger

{ Junsong Yuan, Yuan Li, Qian Zhang, Ming Yang, Chunluan Zhou, Jialian Wu}
Temporale-Kontext-verbesserte Detektion stark verdeckter Fußgänger
Abstract

Zustandsbestimmende Fußgängerdetektoren haben auf nicht verdeckten Fußgängern vielversprechende Ergebnisse erzielt, stehen jedoch weiterhin vor der Herausforderung schwerer Verdeckungen. Obwohl zahlreiche vorangegangene Arbeiten versucht haben, das Problem der Fußgänger-Verdeckung zu mildern, basieren die meisten darauf, dass nur statische Bilder verwendet werden. In diesem Paper nutzen wir den lokalen zeitlichen Kontext von Fußgängern in Videos und stellen ein Tube Feature Aggregation Network (TFAN) vor, das darauf abzielt, die Robustheit von Fußgängerdetektoren gegenüber schweren Verdeckungen zu verbessern. Konkret suchen wir für einen verdeckten Fußgänger im aktuellen Frame iterativ nach relevanten Entsprechungen entlang der zeitlichen Achse, um einen „Tube“ zu bilden. Anschließend werden die Merkmale aus diesem Tube adaptiv gewichtet und aggregiert, um die Merkmalsdarstellung des verdeckten Fußgängers zu stärken. Darüber hinaus entwickeln wir ein zeitlich diskriminatives Embedding-Modul (TDEM) und ein teilspezifisches Relationsmodul (PRM), die unsere Methode besser an die Behandlung von Tube-Drift und starker Verdeckung anpassen. Umfassende Experimente werden auf drei Datensätzen – Caltech, NightOwls und KAIST – durchgeführt, wobei sich zeigt, dass unsere vorgeschlagene Methode besonders effektiv bei der Detektion stark verdeckter Fußgänger ist. Zudem erreichen wir auf den Datensätzen Caltech und NightOwls den Stand der Technik.