NVIDIA は、ラスベガスで開催された CES 2026 で、次世代の AI スーパーコンピューティングプラットフォーム「Rubin (ルービン)」を正式に発表しました。現行の Blackwell アーキテクチャの後継となるこのプラットフォームは、AI のトレーニングと推論の性能を大幅に向上させ、AI 半導体市場における同社の地位をさらに確固たるものにする見込みです。
Rubin プラットフォームの特徴は、NVIDIA Vera CPU や NVIDIA Rubin GPU を含む 6 種類の新しいチップを統合し、単一の AI スーパーコンピューターとして機能させる設計にあります。この「エクストリーム・コードデザイン」と呼ばれるアプローチにより、ハードウェアとソフトウェアが緊密に連携し、システム全体で最適化された性能を発揮します。
性能向上は大きく、Blackwell プラットフォームとの比較では、NVFP4 形式での推論性能が最大で 5 倍の 3.6 エクサフロップスに達します。これにより、トークンあたりのコストを最大 10 分の 1 に削減できるとしています。また、トレーニング性能も最大 3.5 倍に高速化され、MoE (Mixture-of-Experts) モデルのトレーニングに必要な GPU 数を 4 分の 1 に抑えることが可能になると説明しています。
NVIDIA は Rubin を「効率性における大きな進歩」と位置づけています。単に計算能力を高めるだけでなく、データセンターの電力密度、冷却要件、そしてインフラ全体のコスト削減にも貢献するとしています。
Rubin を基盤とする製品群は、2026 年後半からパートナー企業を通じて提供が開始される予定です。すでに AWS、Google Cloud、Microsoft といった主要なクラウドプロバイダーが採用を表明しており、このことは NVIDIA が高性能なチップ供給にとどまらず、CUDA プラットフォームに代表される強力なソフトウェアエコシステムによって顧客との関係を強化している現状を反映しています。
CEO のジェンスン・フアン氏が述べるように、NVIDIA は毎年新しい世代のプラットフォームを発表し、データセンター全体を一つのプログラマブルな AI システムと見なす戦略を推進しています。Rubin の登場は、AI 技術の進化をさらに加速させるとともに、市場における同社の優位性を改めて示すものとなりそうです。
