MetaがAI推論チップ「MTIA」4世代を一挙発表、演算性能2年間で25倍に

FabScene(ファブシーン)

Metaは2026年3月11日、自社開発のAIチップファミリー「MTIA(Meta Training and Inference Accelerator)」の新世代4種(MTIA 300/400/450/500)を公式ブログで一挙公開した。いずれも半導体大手Broadcomとの共同開発で、2年足らずの間に4世代を投入するという高速イテレーション戦略が特徴だ。

MTIAはFacebook、Instagramなど数十億人規模のサービスを支えるAI推論基盤として設計されたチップで、既に数十万台規模が本番環境に展開されているという。NVIDIAのGPUのような汎用製品ではなく、推論ファースト(Inference First)の方針で専用設計されている点が特徴だ。

4世代の概要は以下のとおり。

最初の「MTIA 300」は主にレコメンデーション系(ランキング・推薦)のトレーニング用として設計され、現在本番稼働中。続く「MTIA 400」はGenAI対応を大幅に強化しており、FP8演算性能がMTIA 300比で400%向上、HBMメモリ帯域幅も51%増となった。72台をひとつのスケールアップドメインとしてラック内接続する構成で、データセンターへの展開を進めている。

「MTIA 450」はGenAI推論特化で設計し直した世代で、HBMメモリ帯域幅をMTIA 400比で2倍に拡大した。MTIA 400のHBMバンド幅は主要な商用GPU製品を上回るとされており、MTIA 450はさらにその2倍となる。加えて、MoE(混合エキスパート)モデルの推論で重要なMX4精度のFLOPSを75%増やし、FlashAttentionのボトルネックを緩和するハードウェアアクセラレーションも搭載する。2027年初頭に大量展開を予定している。

「MTIA 500」はMTIA 450からHBMメモリ帯域幅をさらに50%引き上げ、HBM容量も最大80%増、MX4 FLOPSも43%向上させた。4つの小型コンピュートチップレットを2×2に配置するモジュラー設計を採用し、2027年中に大量展開する計画だ。

MTIA 300からMTIA 500への推移全体では、HBMバンド幅4.5倍、演算FLOPS 25倍という数字を2年足らずで達成した計算になる。

設計上の特徴は、チップレット(コンピュート、ネットワーク、SoCを分離した小型チップ)の積み重ねによるモジュラー構造だ。各チップレットを個別にアップグレードできるため、チップ全体を作り直すことなく特定部位の性能向上が可能になるという。またMTIA 400/450/500は同じシャーシとラックインフラを共用しており、新世代への切り替えコストを抑えている。

ソフトウェア面では、MetaがオープンソースMLフレームワークとして公開しているPyTorchをネイティブベースに採用し、vLLM・Triton・MLIR・LLVMなどのエコシステムとの互換性を持つ。開発者はtorch.compileなどの標準ツールをそのまま使えるため、GPUとMTIAへの同時展開もできるとしている。

関連情報

Meta Blog: Meta’s Race to Scale AI Chips for Billions

fabsceneの更新情報はXで配信中です

この記事の感想・意見をSNSで共有しよう
  • URLをコピーしました!
目次