HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen zum Anhalten: Ein einfacher aber effektiver Ansatz für städtische visuell-sprachliche Navigation

Jiannan Xiang Xin Eric Wang William Yang Wang

Zusammenfassung

Vision-and-Language Navigation (VLN) ist eine Aufgabe zur Sprachgrundlage, bei der ein Agent lernt, Sprachanweisungen zu folgen und in realen Umgebungen zu bestimmten Zielen zu navigieren. Eine zentrale Herausforderung besteht darin, den richtigen Ort zu erkennen und dort auch tatsächlich anzuhalten, insbesondere in komplexen Außenumgebungen. Bisherige Ansätze behandeln die STOP-Aktion gleichwertig mit anderen Aktionen, was zu unerwünschtem Verhalten führt: Der Agent bleibt oft am Zielort, obwohl er sich bereits auf dem richtigen Weg befindet, einfach nicht stehen. Daher stellen wir L2Stop vor – ein einfaches, jedoch wirksames Policy-Modul, das die STOP-Aktion von anderen Aktionen unterscheidet. Unser Ansatz erreicht eine neue State-of-the-Art-Leistung auf dem anspruchsvollen städtischen VLN-Datensatz Touchdown und übertrifft die Baseline um 6,89 Prozentpunkte (absoluter Gewinn) hinsichtlich der Success weighted by Edit Distance (SED).


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Lernen zum Anhalten: Ein einfacher aber effektiver Ansatz für städtische visuell-sprachliche Navigation | Paper | HyperAI