HyperAIHyperAI
vor 11 Tagen

DiffusionTrack: Point Set Diffusion Model für visuelles Objektverfolgen

{Chao Ma, Zhongdao Wang, Fei Xie}
DiffusionTrack: Point Set Diffusion Model für visuelles Objektverfolgen
Abstract

Bekannte Siamese- oder Transformer-Tracker modellieren die visuelle Objektverfolgung häufig als ein One-Shot-Detection-Problem, d.h., die Lokalisierung des Zielobjekts erfolgt in einer einzigen Vorwärtsauswertung. Trotz der nachgewiesenen Erfolge neigen diese Tracker leicht dazu, sich von der Zielobjektregion abzulenken, insbesondere bei ähnlichen Störungen, aufgrund des eingeschränkten Einzelvorwärtsansatzes, der keine Selbstkorrektur ermöglicht. Um dieses Problem zu lösen, formulieren wir die visuelle Verfolgung als einen punktmengenbasierten Rauschentfernungs-Diffusionsprozess und stellen einen neuartigen, generativen Lernansatz namens DiffusionTrack vor. Unser DiffusionTrack weist zwei vorteilhafte Eigenschaften auf: 1) Er folgt einem innovativen Noise-to-Target-Verfolgungsparadigma, das mehrere Schritte der Rauschentfernung nutzt, um das Zielobjekt pro Frame dynamisch und iterativ zu lokalisieren. 2) Er modelliert den Diffusionsprozess mittels einer Punktmengendarstellung, die eine bessere Bewältigung von Erscheinungsvariationen ermöglicht und somit eine präzisere Lokalisierung erzielt. Ein zusätzlicher Vorteil ist, dass DiffusionTrack die Nachbearbeitung erheblich vereinfacht, beispielsweise durch die Eliminierung des Window-Penalty-Schemas. Ohne aufwändige Zusatzmechanismen erreicht DiffusionTrack eine führende Leistung gegenüber den aktuellen State-of-the-Art-Trackern und läuft in Echtzeit. Der Quellcode ist verfügbar unter: https://github.com/VISION-SJTU/DiffusionTrack.

DiffusionTrack: Point Set Diffusion Model für visuelles Objektverfolgen | Neueste Forschungsarbeiten | HyperAI