HyperAIHyperAI

Command Palette

Search for a command to run...

EagerMOT: 3D Mehrfachobjektverfolgung durch Sensordatenfusion

Aleksandr Kim Aljoša Ošep Laura Leal-Taixé

Zusammenfassung

Die Mehrzielverfolgung (MOT) ermöglicht mobilen Robotern eine fundierte Bewegungsplanung und -navigation durch die Lokalisierung von umliegenden Objekten im dreidimensionalen Raum und in der Zeit. Bestehende Methoden basieren auf Tiefensensoren (z.B. LiDAR), um Ziele im 3D-Raum zu erfassen und zu verfolgen, jedoch nur innerhalb eines begrenzten Sensierbereichs aufgrund der Sparsität des Signals. Kameraeinsatz hingegen bietet ein dichtes und reichhaltiges visuelles Signal, das hilft, auch ferne Objekte zu lokalisieren, aber nur im Bildbereich. In dieser Arbeit schlagen wir EagerMOT vor, eine einfache Verfolgungsformulierung, die alle verfügbaren Objektbeobachtungen aus beiden Sensorarten eifrig integriert, um eine gut informierte Interpretation der Szenendynamik zu erhalten. Mithilfe von Bildern können wir ferne eingehende Objekte identifizieren, während Tiefenschätzungen präzise Trajektorienlokalisierungen ermöglichen, sobald die Objekte innerhalb des Tiefensensierbereichs sind. Mit EagerMOT erzielen wir Stand-of-the-Art-Ergebnisse in mehreren MOT-Aufgaben auf den Datensätzen KITTI und NuScenes. Unser Code ist unter https://github.com/aleksandrkim61/EagerMOT verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp