Meta が自社開発の AI トレーニングチップの初期テストを開始していることが Reuters の報道で明らかになりました。この取り組みは、同社が Nvidia などの外部サプライヤーへの依存を減らし、急増する AI インフラコストを抑える重要な一歩と位置づけられています。
Meta は 2023 年に Nvidia 製 GPU に約 100 億ドルを費やしたと言われており、2025 年の AI インフラ関連支出は 650 億ドルに達する見込みです。今回開発中の「専用アクセラレーター」は、AI タスク専用に最適化され、従来の GPU よりも電力効率が高く特定の AI ワークロードに対応する能力が強化されています。
チップの製造は台湾半導体製造会社( TSMC )との協力で行われており、現在は設計が終わり、実際の製造に入る前段階まで来ていて、小規模なテストを行う段階に入っています。このプロセスは通常数千万ドルのコストがかかり、成功が保証されないリスクも伴いますが、テストが成功すれば 2026 年までに大規模展開される計画です。
Meta がこのような自社チップ開発に踏み切った背景には、単にコスト削減だけでなく、供給の安定性確保とカスタマイズ性の向上という狙いもあります。Nvidia の高性能 GPU は需要が急増しており供給不足が懸念される中、自社チップを持つことで外部依存のリスクを軽減できます。また、Facebook や Instagram の推薦システム、Meta AI チャットボットなど同社特有の AI ワークロードに最適化した設計が可能となります。
Meta だけでなく Google 、Microsoft 、Amazon 、OpenAI なども独自の AI チップ開発に注力しており、Nvidia の支配的地位に挑戦する動きが加速しています。各社は AI 分野での競争優位性を確保しつつコスト削減を図るため、専用ハードウェアやデータセンターへの投資を拡大しています。