Microsoft は 2026 年 1 月 26 日、第 2 世代となる AI チップ「Maia 200」を正式に発表しました。クラウドと AI 担当エグゼクティブ・バイス・プレジデントの Scott Guthrie 氏がブログで明らかにしたもので、初代 Maia 100 の発表から 2 年ぶりの新製品となります。
Maia 200 は TSMC の最先端 3nm プロセスで製造され、140 億個のトランジスタを搭載しています。216GB の HBM3e メモリと 272MB のオンチップ SRAM を備え、最大 10 ペタ FLOPS の演算能力を実現しました。性能面では、FP4 モードで Amazon の Trainium 3 の 3 倍の速度を記録し、FP8 性能でも Google の TPU v7 を上回ります。注目すべきは消費電力で、750 ワットと Nvidia チップの 1,200 ワット以上と比較して大幅に抑えられており、空冷・液冷いずれのデータセンターにも対応可能です。
Guthrie 氏は Maia 200 について「Microsoft がこれまで展開した中で最も効率的な推論システム」と高く評価しています。同価格帯の競合製品と比較して 30% 高い性能を実現し、最大 6,144 個のチップを接続できるスケーラビリティにより、エネルギー使用量と総所有コストの大幅な削減が見込まれます。
初期展開はアイオワ州とアリゾナ州の Microsoft データセンターで始まり、順次拡大される予定です。OpenAI の最新モデル GPT-5.2 を含む複数の AI モデルに対応し、Microsoft 365 Copilot や Microsoft Foundry サービスの基盤として活用されます。前世代とは異なり、将来的には幅広い顧客への提供も計画されています。
Microsoft は並行して、開発者向けソフトウェア開発キット(SDK)のプレビュー版の提供も開始しました。SDK には PyTorch との統合機能や Triton コンパイラのサポートが含まれ、Nvidia の CUDA に匹敵する開発環境を提供します。
市場調査会社 TrendForce によれば、Microsoft や Google、Amazon などが開発する特定用途向け集積回路(ASIC)ベースの AI サーバーのシェアは、2026 年までに全体の 27.8% に達する見込みです。これは 2023 年以降で最高水準となり、クラウド大手各社が Nvidia への依存を減らし、独自チップの開発を加速している市場動向を示しています。Bloomberg の報道では、Microsoft はすでに次世代チップ Maia 300 の設計に着手しているとのことです。
