OpenAI が GPT-5.3-Codex-Spark を発表、Cerebras チップ上で超高速に動作するモデル

投稿者:

OpenAI は 2026 年 2 月 13 日、リアルタイムコーディングに特化した GPT-5.3-Codex-Spark のリサーチプレビュー版を発表しました。GPT-5.3-Codex の小型版として開発されたこのモデルは、従来モデルの 15 倍の生成速度を実現し、1 秒あたり 1,000 トークン以上を生成します。

このモデルは、2026 年 1 月に発表された Cerebras とのパートナーシップにおける最初の成果です。OpenAI は 2028 年までに Cerebras から 750 メガワットのコンピューティングパワーを導入する契約を締結しており、契約総額は 100 億ドル(約 1 兆 5,000 億円)以上と報じられています。OpenAI が Nvidia 以外のチップで本番運用する AI モデルを展開するのは、これが初めてとなります。

Codex-Spark は Cerebras の第 3 世代チップである Wafer Scale Engine 3(WSE-3)上で動作します。WSE-3 は 4 兆個のトランジスタを搭載した巨大な単一チップで、複数の GPU を組み合わせる従来の方式とは異なる設計です。通信プロトコルの最適化により、ユーザーのリクエストに対する応答の往復時間を 80% 削減し、最初のトークンが生成されるまでの時間を 50% 短縮しました。

ベンチマーク性能では、Terminal-Bench 2.0 で 77.3% の精度を達成し、GPT-5.2-Codex の 64% を大きく上回りました。一方、SWE-Bench Pro では GPT-5.3-Codex の 56.8% とほぼ同等の約 56% を記録しています。実際のデモでは、スネークゲーム構築タスクを Cerebras 搭載の Spark が 9 秒で完了したのに対し、従来モデルは約 43 秒を要しました。

Codex-Spark は現在、ChatGPT Pro ユーザー向けにリサーチプレビューとして提供されており、Codex アプリ、CLI、VS Code 拡張の最新バージョンで利用できます。OpenAI によると、Codex の週間アクティブユーザー数は現在 100 万人を超えており、今後数週間で Pro ユーザー以外にも段階的に拡大していく予定です。