HyperAI超神経
Back to Headlines

シミュレーション技術でロボットの訓練データを高度にカスタマイズへ

14日前

シミュレーションベースのパイプラインが、器用なロボットの学習データをカスタマイズ MITの研究チームが開発した新技術「PhysicsGen」は、ロボットの学習データをシミュレーションで生成し、その動きをより柔軟に制御できるようにします。この手法は、人間による行動デモンストレーションを基に、ロボットの動作計画アルゴリズムに役立つ学習データを大量に生成します。 従来のロボットは、特定のタスクに対する大規模な学習データに基づいて動作しますが、PhysicsGenはこれを一歩進めます。単一の人間のデモンストレーションでも、ロボットが動的 feasibility(可能性)を確保したさまざまな動きをシミュレートできます。たとえば、実験では2つのロボットアームが大きな箱を指定された位置に配置する際、途中で軌道から逸脱したり物体を取り扱う誤りが起きても、既存の動作データから代替策を探し出し、任務を完了できたことが確認されています。 主導するRuss Tedrake教授(MITの電気工学、情報科学、航空工学、機械工学のToyota教授)は、この技術が「人間のデモンストレーションの強みとロボットの動作計画アルゴリズムの力」を組み合わせていると説明します。「将来的には、基礎モデル自体がこの情報を提供し、PhysicsGenのようなデータ生成技術がそれを後加工するレシピとして機能するかもしれません」とも述べています。 将来の計画としては、PhysicsGenがより多様なタスクを学べるように拡張される予定です。MITの研究者は、「洗濯物を片付けるだけの訓練を受けたロボットに水を注ぐ方法を教えることも可能になるでしょう」と語ります。これは、ロボットが見たことのない新しいタスクを遂行するための基本となる物理的インタラクションのライブラリを構築する第一歩とみられています。 CSAIL主導のチームは、インターネット上のビデオなどの非構造化リソースをシミュレーションの種に利用する方法も調査しています。最終的には、日常的な視覚コンテンツを豊富でロボットに適した学習データに変換し、人間に明示的に示されていないタスクを学ばせることを目指しています。 また、異なる形状や構成を持つロボットにもPhysicsGenを適応させるために、実際のロボットの关节動作を記録したデータセット活用も検討されています。この方法により、ロボットが自身の環境を視覚的に理解し、物理的な複雑さに適応できるようになることを目指しています。 現在、PhysicsGenは特に硬い物体の取り扱いに焦点を当てていますが、柔らかい(例:果物)や可塑性のある(例:粘土)物体との対話のシミュレーションはまだ難易度が高い状況です。ただし、この技術の発展により、ロボットがこれらの物体を効率的に操作する方法を見出す日も近いかもしれません。

Related Links