Google は 2026 年 4 月 22 日、ラスベガスで開催された Cloud Next 2026 にて、自社開発の AI 専用プロセッサ「 TPU 」の第 8 世代モデルを発表しました。最大の変更点は、AI の「学習(トレーニング)」と「推論(質問への応答処理など)」を、それぞれ別の専用チップに役割分担させた点です。 Google が TPU を開発してきた 10 年以上の歴史の中で、この 2 チップ構成は今回が初めてとなります。
学習専用の「 TPU 8t 」は、大規模な AI モデルの開発を大幅に効率化することを目的としています。前世代比で 2.8 倍の学習性能を実現しており、これまで数か月かかっていたモデル開発のサイクルを数週間に短縮することを目指しています。新たなネットワーク基盤「 Virgo Network 」によりデータセンター内の通信速度も 4 倍に向上し、将来的には 100 万チップ以上を一つのクラスターとして束ねる構想も掲げています。
推論専用の「 TPU 8i 」は、すでに完成した AI モデルを実際に動かすことに特化したチップです。数百万規模の AI エージェントを同時に稼働させることを念頭に置いた設計で、応答速度の改善に重点が置かれています。同じコストで前世代のほぼ 2 倍のワークロードを処理できるため、クラウドサービスの運用コスト削減にも直結します。
両チップは TSMC の最先端 2nm プロセスで製造され、消費電力あたりの性能も前世代比で最大 2 倍改善されています。今回から「ベアメタルアクセス」と呼ばれる直接制御機能も提供され、ソフトウェアの仲介なしにハードウェアを使い切れる環境が整いました。
この 2 チップ分割の戦略は、 AWS が学習向け「 Trainium 」と推論向け「 Inferentia 」を分けているのと同じ方向性です。用途に特化することで汎用 GPU に対する優位性を高めようとする動きは、 AI インフラの設計トレンドとして業界全体に広がっています。 DA Davidson の推計によると、 Google の TPU ビジネスは年間約 90 億ドル(約 1 兆 3,500 億円)規模の価値があるとされており、今回の発表がその競争力をさらに強化するものと見られています。両チップは 2026 年後半に Google Cloud 経由で一般提供が始まる予定です。
