HyperAIHyperAI

Command Palette

Search for a command to run...

BrainBody-LLM 算法突破性实现机器人类人级规划与运动模拟

由纽约大学坦登工程学院研究人员开发的新型算法BrainBody-LLM,能够使机器人更像人类一样进行任务规划与动作执行。该算法通过两个大型语言模型(LLM)的协同工作,实现从任务理解到动作执行的闭环控制,显著提升了机器人在复杂环境中的自主性与适应性。 BrainBody-LLM的核心架构分为“脑”(Brain-LLM)和“体”(Body-LLM)两个部分。Brain-LLM负责理解用户指令,如“在沙发上吃薯片”,并基于现实世界知识将其分解为一系列可执行的高阶步骤。Body-LLM则逐个处理这些步骤,生成机器人可执行的具体控制命令。当系统在环境中发现无法执行的动作时,Body-LLM会输出特定标记,提示系统进行调整。 该算法采用闭环反馈机制,能持续监测环境变化和执行错误,并将反馈信息回传至系统,实现自动修正。这种动态交互能力是其关键优势,使机器人能更稳健地应对复杂或突发情况。 研究人员在虚拟环境VirtualHome和真实机器人平台Franka Research 3上进行了测试。结果显示,与现有先进模型相比,BrainBody-LLM将任务完成率提升了17%,在真实机器人实验中平均成功率达84%。在模拟和真实场景中均表现出色,证明其在现实应用中的潜力。 研究团队表示,该算法受到人类大脑与身体协同工作的启发,未来将进一步融合3D视觉、深度感知和关节控制等多模态信息,推动机器人实现更自然、更接近人类的运动与行为。 这项工作为LLM在机器人领域的应用提供了新范式,有望激励更多研究者探索基于大模型的智能机器人系统。

相关链接