
ロボットのAIモデルはこれまで、特定のタスクのデータを集めて専用モデルを訓練するという繰り返しが必要だった。学習していないことはできない——それが前提だった。2026年4月16日、サンフランシスコを拠点とするPhysical Intelligenceが発表した「π0.7」は、その前提に変化の兆候を示している。
π0.7の核心は「組み合わせ汎化(compositional generalization)」だ。LLMが「英語からフランス語に翻訳する能力」と「JSON形式で出力する能力」を組み合わせて、その組み合わせのデータがなくても対応できるように、π0.7はロボットが習得したスキルを組み合わせて未知のタスクをこなす初期的な能力を示した。訓練データに洗濯物たたみのデータがないロボットが洗濯物をたたんだり、見たことのない新しい調理家電を操作したりする例を示している。
汎化を可能にした鍵は、プロンプトの多様化にある。従来モデルもさまざまなロボットデータや人間の動画データを使っていたが、π0.7ではそれらを「多様なコンテキストを含むプロンプト」という統一されたフレームワークに統合した。テキストによるタスク説明に加え、動作の速さや質を示すメタデータ、関節制御か手先制御かを示すラベル、サブゴールの視覚画像など複数のモダリティを組み合わせることで、異なる戦略・品質レベルのデータを一つのモデルで扱えるようにしている。テスト時には軽量なワールドモデルが生成した視覚サブゴール画像も入力として使える。
研究チームは論文で「初期的な兆候」「初期的なデモンストレーション」という慎重な表現を使っており、研究段階であることを明確にしている。共同創業者でUCバークレー教授のSergey Levine氏は、実用的な展開時期について明言を避けた。同社はこれまでに10億ドル(約1590億円)以上の資金を調達し、直近の評価額は56億ドル(約8900億円)とされる。

