AIとロボットが「 chair を作って」——ユーザーが自然言語で指示、3D設計から自動組み立てまで実現
MITの研究チームが、ユーザーが「ロボット、私のために椅子を作って」と言うだけで、AIとロボットが協働して家具を設計・製造するシステムを開発した。このシステムは、ユーザーがテキストや画像でアイデアを提示すると、AIがそのデザインを解析し、構造部品とパネル部品を適切に配置する。研究チームは、このプロセスを「人間とAIの共同設計」と位置づけ、ユーザーが途中で修正を加えることで、好みに合わせた結果を得られるようにしている。 開発の鍵は、視覚言語モデル(VLM)の活用にある。このAIは、画像とテキストを理解できるため、椅子の座面や背もたれにパネルを配置する理由を「座る」「背もたれに寄りかかる」といった機能に基づいて判断できる。実際のユーザー調査では、このシステムで生成されたデザインが、ランダム配置や単純なルールに基づく手法よりも90%以上も好まれた。 研究を主導したMIT大学院生のAlex Kyaw氏は、「将来的には、人とAIが自然に会話しながら一緒に物を作れるようになりたい」と語る。現在のシステムは、再利用可能な部品を使って構造を組み立て、分解・再構成が可能なため、持続可能な製造に適している。将来的には、ガラスや金属など複雑な素材や、ギアやヒンジといった動く部品も扱えるように拡張する予定だ。 研究チームは、MITの電気工学・コンピュータ科学部(EECS)と建築学部、Google DeepMind、Autodesk Researchなどと連携。成果は「Neural Information Processing Systems」で発表された。この技術は、航空機部品や建築物の迅速なプロトタイピングに役立ち、将来的には家庭でも家具をローカルで作れる可能性を秘めている。
