Categories: ニュース

AIサーバーに128TBメモリ、元Google/Meta幹部が「メモリの壁」破る

AIモデルの学習・推論性能を制限する要因が、計算能力ではなく「メモリの壁」(メモリウォール)に移ってきた。プロセッサの処理速度が上がる一方で、メモリ容量や帯域がそれに追いつかず、高性能GPUがデータ待ちで遊ぶ場面が増えている。元Google・Meta出身の半導体エンジニアが立ち上げた米Majestic Labsは、この課題を正面から解こうとする新型AIサーバー「Prometheus」を、2026年4月28日に発表した。1サーバーあたり最大128TB(テラバイト)の高速メモリを各プロセッサに直結させる設計で、最新GPUサーバーの約1000倍のメモリ容量を1筐体に収める。

Majestic Labsは、Ofer Shacham氏(CEO)、Sha Rabii氏(President)、Masumi Reynders氏(COO)の3人が2023年末に創業した。3人はGoogleのカスタムシリコンチーム「GChips」と、Meta Reality Labs内のシリコン開発チーム「FAST(Facebook Agile Silicon Team)」を相次いで立ち上げてきた経歴を持つ。Reynders氏は「AIインフラは前例のない速度でスケールしているが、業界は基本的なアーキテクチャ上の非効率を解いていない。Majesticはトランスフォーマー以降のAI進化にも対応できるプログラマビリティを保ったまま、現在のワークロードに即時の運用改善を提供する」と発表で述べた。同社は2025年11月にステルスを解き、Bow Wave Capital主導のシリーズAなどで合計1億ドル超(約160億円)を調達している。

Prometheusの中核は、自社開発のカスタムアクセラレーターチップとメモリインターフェースチップ、そして「メモリ・ファースト(メモリ第一主義)」と呼ぶ独自のシステムアーキテクチャだ。プロセッサとメモリを切り離して大容量プールとして共有させ、各プロセッサが直接1000倍規模のメモリにアクセスできるようにする。プロセッサ同士の通信も、低速なチップ間リンクではなく、高速なメモリ経由で相互にやり取りする。同社の試算では、1基のMajesticラックがNvidiaの最新GPUラック「NVL72 Vera Rubin」25基分の高速メモリ容量に相当し、消費電力はそれより小さい。Rabii氏は「メモリの壁を増分的な改善で回り込むのではなく、最初の原理から全体を再設計する必要があった。メモリを最初に置き、すべてをそれに合わせて構築した」と説明する。

想定する用途は、数兆パラメータ規模のフロンティアモデル、コンテキスト長が数億トークンに及ぶLLM、Mixture-of-Experts、エージェンティックAIシステム、グラフニューラルネットワーク、表データモデルなど、いずれも従来のGPUベースインフラでは効率良く動かしにくいワークロード群だ。Hugging Face上のあらゆるAIモデルを変更なしでコンパイルできることを既に確認しているという。同社は最初の顧客向けシステム提供を2027年と公表しており、現在は4ラインの開発が並行で進む。背景には、トップ5社のハイパースケーラーだけで2025年に4430億ドル(約70兆8000億円)のCapExを投じ、2026年には36%増の6020億ドル(約96兆2000億円)に達するとされる、AIインフラ投資の急膨張がある。Majestic Labsは、その膨張曲線そのものに別解を提示しようとしている。

関連情報

FabScene編集部

FabScene編集部