Command Palette
Search for a command to run...
GR-Dexter Technischer Bericht
GR-Dexter Technischer Bericht
Abstract
Vision-Sprache-Aktion (VLA)-Modelle haben sprachgesteuerte, langfristige Manipulationen durch Roboter ermöglicht, doch verbleiben die meisten bestehenden Systeme auf Greifer beschränkt. Die Skalierung von VLA-Politiken auf zweihändige Roboter mit hochgradig dexterösen Handsystemen bleibt aufgrund des erweiterten Aktionsraums, häufiger Hand-Objekt-Verdeckungen sowie der Kosten für die Datenerhebung an echten Robotern herausfordernd. Wir stellen GR-Dexter vor – einen ganzheitlichen Hardware-Modell-Daten-Framework für allgemeine Manipulation auf zweihändigen, dexterösen Robotern basierend auf VLA-Modellen. Unser Ansatz kombiniert die Entwicklung einer kompakten 21-DoF-Roboterhand, ein intuitives zweihändiges Teleoperationssystem zur Datenerhebung an echten Robotern sowie ein Trainingsverfahren, das teleoperierte Roboterpfade gemeinsam mit großskaligen Vision-Sprache-Daten und sorgfältig kuratierten, über verschiedene Embodiments hinweg verfügbaren Datensätzen nutzt. In realen Umgebungen erreicht GR-Dexter bei langfristigen, alltäglichen Manipulationstasks sowie generalisierbaren Pick-and-Place-Aufgaben starke Leistung im Trainingsbereich und verbesserte Robustheit gegenüber unbekannten Objekten und unbekannten Anweisungen. Wir hoffen, dass GR-Dexter einen praktischen Schritt hin zu allgemeinen, dexterösen Robotermanipulationen darstellt.