Integration egozentrischer Lokalisierung für realistischere Point-Goal-Navigation-Agenten

Neuere Arbeiten haben körperhafte Agenten vorgestellt, die in neuen Innenräumen mit nahezu perfekter Genauigkeit zu punktzielbasierten Zielen navigieren können. Diese Agenten verfügen jedoch über idealisierte Sensoren zur Lokalisierung und treffen deterministische Aktionen. Im Vergleich zur realen Welt, in der Sensoren und Aktuatoren stets verrauscht sind – Räder können durchrutschen, Bewegungssensoren Fehler aufweisen, Aktionen können nachschwingen – ist dieses Setting praktisch steril. In dieser Arbeit schlagen wir einen Schritt in Richtung dieser rauen Realität vor und entwickeln punktzielbasierte Navigationsagenten, die auf visuellen Schätzungen der Eigenbewegung (Egomotion) unter verrauschten Aktionsdynamiken basieren. Wir zeigen, dass diese Agenten sowohl naive Anpassungen bestehender punktzielbasierter Agenten an diese Bedingungen als auch Ansätze mit klassischen Lokalisierungsbaselines übertrifft. Zudem gliedert sich unser Modell konzeptionell in zwei Komponenten: die Lernung von Agentendynamiken oder der Odometrie („Wo bin ich?“) und die task-spezifische Navigationspolitik („Wohin möchte ich gehen?“). Diese Trennung ermöglicht eine nahtlose Anpassung an veränderte Dynamiken – etwa an einen anderen Roboter oder eine andere Bodenbeschaffenheit – durch lediglich eine Neukalibrierung des visuellen Odometriemodells, wodurch der aufwendige Prozess der erneuten Trainierung der Navigationspolitik entfällt. Unser Agent erreichte den zweiten Platz im PointNav-Wettbewerb der CVPR 2020 Habitat Challenge.