NVIDIA、推論チップのGroqと提携、200億ドル規模の投資で引き続き市場支配を狙う

投稿者:

AI 半導体市場で圧倒的な地位を築く NVIDIA が、AI 推論チップのスタートアップである Groq との大型提携を発表しました。この契約は、Groq の推論技術に関する非独占的ライセンス契約と、創業者を含む主要人材が NVIDIA に移籍する「アクイハイヤー(人材獲得型買収)」を組み合わせたもので、その規模は 200 億ドル(約 3 兆 1200 億円)に上ると報じられています。

Groq は、大規模言語モデル(LLM)の推論処理に特化した独自の LPU(Language Processing Unit)で知られています。従来の GPU と比較して最大 10 倍のエネルギー効率と超低遅延を実現するとされる LPU は、リアルタイム AI アプリケーションでの性能を飛躍的に向上させる可能性を秘めています。この技術の鍵は、外部メモリ(HBM)に頼らない設計にあり、これによりデータ転送のボトルネックを解消しています。

NVIDIA がこの巨額の投資に踏み切った背景には、AI 推論市場の支配という明確な戦略があります。現在、NVIDIA は AI の「トレーニング」市場では独占的なシェアを誇りますが、AI 支出の大半を占めると予測される「推論」市場は競争が激化しています。Groq の特化した技術と、Google の TPU 開発にも関わった創業者ジョナサン・ロス氏をはじめとする優秀な人材を獲得することで、NVIDIA は推論分野でのリーダーシップを確立しようとしています。

また、この取引が直接的な「買収」ではなく、「ライセンス契約」と「アクイハイヤー」という形式を取った点も注目されます。これは、規制当局による厳しい独占禁止法審査を回避し、技術と人材を迅速に統合するための巧妙な戦略と見られています。

アナリストからは、この提携が NVIDIA の競争力をさらに強化する「攻め」と、競合他社への技術流出を防ぐ「守り」の両面を持つ戦略的な動きであると、概ね好意的に評価されています。一方で、Groq の現行チップのメモリ容量が NVIDIA の GPU に比べて小さい点を指摘し、将来の高性能 AI モデルへの対応能力を疑問視する声も一部にはあります。

今回の提携は、NVIDIA が AI のトレーニングから推論までの全領域をカバーし、AI 市場における支配的地位を盤石にしようとする野心的な一手です。AI ハードウェアの進化と市場競争の行方を占う上で、重要な動きとなることは間違いないでしょう。