ロボットが人間のように計画・実行する新アルゴリズム「BrainBody-LLM」、実世界で84%の成功率を達成
ニューヨーク大学Tandon工学部の研究チームが、ロボットが人間のように計画し、動きを調整する新たなアルゴリズム「BrainBody-LLM」を開発した。このアルゴリズムは、大規模言語モデル(LLM)を二つ使い分けることで、ロボットがユーザーの指示に従って複雑なタスクを実行できるようにする。研究は『Advanced Robotics Research』に掲載され、人間の脳と体の連携を模倣した構造を採用している。 BrainBody-LLMは、二つのLLMから構成される。まず「Brain-LLM」が高レベルなタスクを分解し、例として「ソファでポテトチップスを食べる」という指示を、順序立てた小ステップに分割する。次に「Body-LLM」が各ステップに対応する具体的なロボット操作命令を生成。この際、環境に合った行動が見つからない場合、モデルは「実行不可能」と判断してエラーを出力する。さらに、環境の反応や誤差情報をリアルタイムでフィードバックし、計画を自動で修正する「クローズドループ」構造を採用。この仕組みにより、不確実な状況でもロボットの行動が柔軟に修正可能になる。 研究チームは、仮想環境「VirtualHome」と実機のFranka Research 3ロボットアームを用いて検証。シミュレーションと実験の両方で、従来の最先端モデルと比較してタスク達成率が17%向上し、平均84%の成功を達成。特に、複数のステップにわたる日常動作(例:物を取ってテーブルに置く)において、人間の行動に近い自然な流れを再現した。 研究の共同筆頭著者であるVineet Bhat氏は、「LLMは現実世界の状況を理解する能力を持つ。我々はその力をロボットの行動計画に活かすことに成功した」と語る。今後は、3D視覚、深度センシング、関節制御などの新たなセンサー情報を統合し、より人間らしい動きを実現する方向で研究を進める予定だ。 この成果は、AIが単なる情報処理を超えて、物理世界での自律行動を可能にする一歩となり、今後のロボット工学に大きな影響を与える可能性がある。
