HyperAI
vor 2 Tagen

Reicht Vielfalt für die skalenfähige Robotermanipulation?

Modi Shi, Li Chen, Jin Chen, Yuxiang Lu, Chiming Liu, Guanghui Ren, Ping Luo, Di Huang, Maoqing Yao, Hongyang Li
Reicht Vielfalt für die skalenfähige Robotermanipulation?
Abstract

Daten skalierung hat bemerkenswerten Erfolg bei Grundlagenmodellen für die Natürliche Sprachverarbeitung (NLP) und die Computer Vision (CV) gebracht, jedoch sind die Prinzipien effektiver Daten skalierung in der Robotikmanipulation noch unzureichend verstanden. In dieser Arbeit untersuchen wir die feinen Zusammenhänge der Datenvielfalt in der Robotiklernen durch die Betrachtung dreier kritischer Dimensionen: Aufgabe (was zu tun ist), Inkarnation (welcher Roboter verwendet wird) und Experte (wer demonstriert). Dies stellt die herkömmliche Intuition von „je vielfältiger, desto besser“ in Frage. Durch umfangreiche Experimente auf verschiedenen Robotikplattformen zeigen wir, dass (1) die Vielfalt der Aufgaben wichtiger als die Anzahl der Demonstrationen pro Aufgabe ist, was den Transfer von vielfältigen Vortrainingsaufgaben zu neuen nachgelagerten Szenarien fördert; (2) Mehrfach-Inkarnations-Vortrainingsdaten optional für den Cross-Inkarnation-Transfer sind – Modelle, die auf hochwertigen Einzel-Inkarnations-Daten trainiert wurden, können effizient auf verschiedene Plattformen übertragen werden und zeigen während des Feintunings bessere Skalierungseigenschaften als Mehrfach-Inkarnations-Vortrainingsmodelle; und (3) Expertenvielfalt, die aus individuellen Betriebspräferenzen und stochastischen Variationen in menschlichen Demonstrationen entsteht, für das Lernen von Richtlinien verwirrend sein kann, wobei sich Velozitäts-Multimodalität als ein wesentlicher Faktor herausstellt. Basierend auf diesen Erkenntnissen schlagen wir eine Verteilungsdeverzerrungsmethode vor, um Velozitäts-Unklarheit zu reduzieren. Das resultierende Modell GO-1-Pro erzielt erhebliche Leistungsverbesserungen von 15 %, was dem Einsatz von 2,5-mal so viel Vortrainingsdaten entspricht. Zusammenfassend bieten diese Ergebnisse neue Perspektiven und praktische Anleitung dafür, wie man Roboter-Manipulationsdatensätze effektiv skaliert.