HyperAI超神経
Back to Headlines

視覚で体を学ぶロボット、ニューラルジャコビアンフィールドが新たな制御技術を切り開く

8日前

MITのコンピュータサイエンスと人工知能研究室(CSAIL)で開発された新しいビジョンベースのシステムが、ロボットに「自分自身の体を理解する」能力を付与している。このシステムは、ロボットの身体構造を学習し、コントロール命令にどう反応するかを理解するもので、従来のセンサーや設計モデルに依存せず、カメラの視覚データだけを使って制御を可能にしている。この技術は「Neural Jacobian Fields(NJF)」と呼ばれ、ロボットが自らの内部モデルを観察から学ぶ仕組みを持つ。 研究を主導したMITの博士課程学生であるSizhe Lester Li氏は、「ロボットをプログラミングするのではなく、教える時代へ移行する」と語る。従来はロボットの動作を制御するためには高度なセンサーや設計が不可欠だったが、NJFは視覚だけでロボットの動きを理解できるため、ハードウェアの自由度が高まる。これにより、柔らかく変形可能なロボットや生物に似た設計のロボットが、これまでより簡単に制御可能になる。 テストでは、空気圧で動くソフトロボットハンドや剛体ハンド、3Dプリンタで作られたアーム、センサーや構造的な制約がない回転台など、さまざまなロボットにNJFを適用し、視覚とランダムな動きから形状や反応を学習した。このシステムは、カメラの映像をもとにロボットの運動と制御の関係を自動的に推測し、動作を計画・実行する。 研究チームは、この技術が農業や建設現場、動的な環境でのロボット運用に応用できると期待している。また、将来的には、個人がスマートフォンでロボットの動きを録画し、NJFで制御モデルを作成できる可能性もある。現状では、複数のカメラが必要で、各ロボットごとに再トレーニングが必要だが、今後の進化で使い勝手が向上する見込み。 NJFはまだ異なるロボット間での汎用性に限界があり、接触が多いタスクには力不足だが、研究チームはその改善を模索している。この技術は、ロボットが視覚から自らの動きやダイナミクスを学び、従来の制御方法では難しい環境でも柔軟に動作できるようにするもので、ロボティクスの未来を示唆している。

Related Links