
Microsoftは2026年1月26日、大規模AI推論向けアクセラレーター「Maia 200」を発表した。同社によると、既存システムと比較して性能対コストが30%向上したという。
Maia 200はTSMCの3nmプロセスで製造され、1400億個以上のトランジスタを搭載する。4ビット精度(FP4)で10ペタFLOPS以上、8ビット精度(FP8)で5ペタFLOPS以上の性能を発揮し、TDPは750Wとなっている。メモリサブシステムには216GBのHBM3eメモリを搭載し、7TB/sの帯域幅と272MBのオンチップSRAMを備える。
メモリシステムは狭精度データ型に最適化されており、専用DMAエンジン、オンダイSRAM、高帯域データ移動用の特殊なノードオブチップファブリックを統合した。これによりトークンスループットの向上を実現している。
競合製品との比較では、Amazon Trainium 3と比較してFP4性能が3倍、Google TPU v7よりもFP8性能が高いとしている。Microsoftは、Maia 200をハイパースケーラー初の自社製シリコンとして最も高性能と位置付けている。
システムレベルでは、標準イーサネットベースの2層スケールアップネットワーク設計を採用した。各アクセラレーターは2.8TB/sの双方向専用スケールアップ帯域幅を備え、最大6144基のアクセラレーターでクラスターを構成できる。各トレイ内では4基のMaiaアクセラレーターが直接接続されており、高帯域通信をローカルに保つことで推論効率を最適化している。
冷却システムには第2世代のクローズドループ液冷ヒートエクスチェンジャーユニットを採用し、データセンターでの信頼性と稼働時間を最大化している。Microsoftによると、最初のパッケージ部品到着から数日以内にMaia 200シリコン上でAIモデルが稼働し、最初のシリコンから最初のデータセンターラック展開までの時間は、同等のAIインフラプログラムの半分以下に短縮されたという。
Maia 200はアイオワ州デモイン近郊のUS Centralデータセンター地域に展開済みで、次にアリゾナ州フェニックス近郊のUS West 3データセンター地域への展開が予定されている。OpenAIのGPT-5.2モデルを含む複数のモデルで使用され、Microsoft FoundryやMicrosoft 365 Copilotにも活用される。
Microsoft Superintelligenceチームは、合成データ生成と強化学習に向けてMaia 200を使用し、次世代の社内モデルの改善に取り組む。合成データパイプラインの使用事例では、Maia 200の設計により、高品質でドメイン固有のデータを生成およびフィルタリングする速度が加速され、より新鮮で的を絞った信号で下流のトレーニングに供給できる。
開発者向けには、PyTorch統合、Tritonコンパイラー、最適化されたカーネルライブラリーを含むMaia SDKのプレビュー版の提供を開始した。SDKにはMaiaシミュレーターとコスト計算ツールも含まれ、早期段階でのコード最適化を支援する。

