Categories: ニュース

「椅子を作って」と言うだけでロボットが家具を組み立てるAIシステム、MITが開発

米MITの研究チームは、テキストや音声で指示するだけでロボットが家具などの物体を組み立てるAI駆動システムを開発した。CADソフトウェアの専門知識がなくても、言葉で説明するだけで物理的なオブジェクトを設計・製作できる。研究成果はNeurIPS 2025で発表された。

このシステムでは、ユーザーが「椅子を作って」などとプロンプトを入力すると、生成AIモデルがまず3Dメッシュを生成する。次にVLM(Vision Language Model)がオブジェクトの形状と機能を分析し、構造部品のどこにパネル部品を配置すべきかを判断する。たとえば椅子であれば、座面と背もたれにパネルが必要だと推論する。

ユーザーの対話的フィードバックで設計を調整

ロボットアームがイスを組み立てる様子 (画像出典元:MIT News)

設計プロセス全体を通じてユーザーは対話的に関与できる。「座面にはパネルを付けないで」などと追加のプロンプトを与えれば、VLMがそれに応じて設計を修正する。最終的な3Dメッシュが確定すると、ロボットがプリファブ部品を使って自動的に組み立てる。

研究チームはこのシステムを使い、椅子や棚などの家具を2種類のプリファブ部品から製作した。部品は分解・再組立が可能で、製造時の廃棄物削減にもつながる。ユーザー調査では、参加者の90%以上が他の手法で作られたオブジェクトよりもこのシステムで作られたものを好んだという。

筆頭著者でMIT電気工学・コンピューター科学・建築学科大学院生のAlex Kyaw氏は「いずれはロボットやAIシステムと、人間同士が話すように会話しながら一緒にものを作れるようになりたい。このシステムはその未来への第一歩だ」と述べた。

音声入力版も開発、5分で椅子を製作

研究チームは、音声入力に対応した「Speech-to-Reality」システムも開発している。テーブルに設置したロボットアームが「シンプルなスツールが欲しい」といった音声指示を受け取り、モジュラー部品から家具を組み立てる。3Dプリントでは数時間から数日かかる製作が、数分で完了する。

Kyaw氏は「『椅子が欲しい』と言えば5分以内に目の前に椅子が現れる未来を想像してほしい。このプロジェクトは人間、AI、ロボットが共同で世界を作り上げるインターフェースだ」と語った。

研究にはMITのほか、Google DeepMindとAutodesk Researchの研究者も参加した。

関連情報

MIT News

FabScene編集部

FabScene編集部