Command Palette
Search for a command to run...
GR-Dexter 技术报告
GR-Dexter 技术报告
Abstract
视觉-语言-动作(Vision-Language-Action, VLA)模型已实现基于语言指令的长时程机器人操作,但现有大多数系统仍局限于夹爪式机器人。将VLA策略扩展至具备高自由度(DoF)灵巧双手的双臂机器人,仍面临诸多挑战,包括动作空间的显著扩大、手-物之间频繁的遮挡,以及真实机器人数据采集成本高昂等问题。本文提出GR-Dexter,一个面向双臂灵巧手机器人的VLA基通用操作的完整硬件-模型-数据一体化框架。我们的方法融合了紧凑型21自由度机器人手的设计、面向真实机器人数据采集的直观双臂遥操作系统,以及一种创新的训练方案——该方案结合遥操作生成的机器人轨迹,以及大规模视觉-语言数据集与精心构建的跨体态数据集。在涵盖长时程日常操作与可泛化抓取-放置任务的真实世界评估中,GR-Dexter展现出优异的域内性能,并显著提升了对未见物体和未见指令的鲁棒性。我们期望GR-Dexter能为实现通用型灵巧手机器人操作迈出切实可行的一步。