Google、AI 推論特化型プロセッサ「 Ironwood 」TPU を発表

投稿者:

Google は 2025 年 4 月 9 日、「 Google Cloud Next ’25 」カンファレンスにおいて、第 7 世代となる Tensor Processing Unit( TPU )「 Ironwood 」を発表しました。この新チップは、 AI 推論処理に特化した初の TPU として注目を集めています。

Ironwood の最大の特徴は、トレーニングではなく推論処理に最適化された設計です。単一チップで 4,614 テラフロップス( TFLOPs )の計算能力を持ち、これは NVIDIA の最新 GPU 「 Blackwell B200 」と同等のレンジに位置しています。最大 9,216 チップを液体冷却と高速インターコネクトで接続した「ポッド」構成では、42.5 エクサフロップスという驚異的な計算能力を実現。これは世界最速のスーパーコンピューター「 El Capitan 」の約 24 倍の性能とされていますが、 Ironwood が FP8(8 ビット浮動小数点)演算を使用している点で、単純比較には注意が必要です。

メモリ性能も大幅に向上し、各チップに 192GB の高帯域幅メモリ( HBM )を搭載。これは前世代「 Trillium 」TPU の 6 倍に相当します。メモリ帯域幅はチップあたり 7.2 テラビット/秒で Trillium の 4.5 倍、チップ間通信速度も 1.2 テラビット/秒(双方向)と 1.5 倍に向上しています。

エネルギー効率も飛躍的に改善され、 Trillium と比較してワットあたりの性能が 2 倍に向上。 Google の初代クラウド TPU( 2018 年)と比べると約 30 倍の電力効率を実現しています。また「 SparseCore 」機能により、ランキングシステムやレコメンデーションエンジンなど特定の AI ワークロードを高速化します。

Google Cloud では Ironwood を 256 チップ構成と 9,216 チップ構成の 2 種類で提供予定です。この新チップは Google の「 AI Hypercomputer 」アーキテクチャの中核を担い、「 Pathways 」ソフトウェアスタックと組み合わせることで、開発者は数万の Ironwood TPU をシームレスに利用できるようになります。

Ironwood の登場により、企業は先進的な AI モデルをより経済的に運用できるようになり、特に Gemini 2.5 などの「思考モデル」の実行に最適化されることで、 AI が単なるデータ提供から積極的に洞察や回答を生成する「推論の時代」へ移行を加速させると期待されています。