Nebenaufgaben und Exploration ermöglichen ObjectNav

ObjectGoal-Navigation (ObjectNav) ist eine eingebettete Aufgabe, bei der Agenten ein Objektinstanz in einer unbekannten Umgebung erreichen müssen. Frühere Arbeiten haben gezeigt, dass end-to-end ObjectNav-Agenten, die einfache visuelle und rekurrente Module wie z.B. ein CNN+RNN verwenden, aufgrund von Überanpassung und mangelnder Stichprobeneffizienz schlecht abschneiden. Dies hat moderne Stand-of-the-Art-Methoden motiviert, analytische und gelernte Komponenten zu kombinieren und auf expliziten räumlichen Karten der Umgebung zu operieren. Wir ermöglichen stattdessen die Wiederverwendung eines generischen gelernten Agenten durch das Hinzufügen von Nebenaufgaben des Hilfslernens und einer Explorationsbelohnung. Unsere Agenten erzielen einen Erfolgswert von 24,5 % und einen SPL-Wert von 8,1 %, was jeweils eine relative Verbesserung um 37 % und 8 % gegenüber dem bisherigen Stand-of-the-Art darstellt, im Habitat ObjectNav Challenge. Aus unserer Analyse schließen wir, dass Agenten versuchen werden, ihre visuellen Eingaben zu vereinfachen, um ihre RNN-Dynamik zu glätten, und dass Nebenaufgaben die Überanpassung reduzieren, indem sie die effektive RNN-Dimensionalität minimieren; d.h., ein leistungsfähiger ObjectNav-Agent, der über lange Zeithorizonte kohärente Pläne aufrechterhalten muss, tut dies durch das Lernen glatter, niedrigdimensionaler rekurrenter Dynamiken.Quelle: https://joel99.github.io/objectnav/