Command Palette
Search for a command to run...

摘要
基于模仿学习的视觉-运动策略在机器人操作任务中得到了广泛应用,通常同时利用视觉观测与本体感知状态以实现精确控制。然而,在本研究中,我们发现这种常见做法会使策略过度依赖本体感知状态输入,从而导致对训练轨迹的过拟合,并严重影响空间泛化能力。与此相反,我们提出了一种无需状态信息的策略(State-free Policy),该策略完全摒弃本体感知状态输入,仅根据视觉观测来预测动作。该策略在相对末端执行器动作空间中构建,并要求提供完整的任务相关视觉信息,本研究中由双广角腕部摄像头提供。实验结果表明,与依赖状态的策略相比,该无状态策略在空间泛化能力上显著更优:在真实世界任务中,包括抓取与放置、具有挑战性的衬衫折叠以及复杂的全身操作任务,涵盖多种机器人本体形态,其在高度方向上的平均成功率从0%提升至85%,在水平方向上的平均成功率从6%提升至64%。此外,该策略在数据效率和跨本体适应性方面也展现出明显优势,显著增强了其在实际部署中的可行性与实用性。