OpenAI は 2025 年 8 月 5 日、2019 年の GPT-2 以来となる初のオープンウェイト大規模言語モデル「 gpt-oss-120b 」と「 gpt-oss-20b 」をリリースしました。これらのモデルは Apache 2.0 ライセンスで公開され、商用利用を含む自由な活用が可能です。
今回発表された 2 つのモデルは、いずれも Mixture-of-Experts ( MoE )アーキテクチャを採用しています。大型モデルの gpt-oss-120b は 1170 億パラメータを持ち、単一の NVIDIA H100 GPU ( 80GB )での動作が可能です。一方、小型版の gpt-oss-20b は 210 億パラメータで、16GB メモリを搭載した MacBook などの消費者向けデバイスでも利用できます。
性能面では、両モデルともに OpenAI の既存の商用モデルと同等以上の推論能力を示しています。 gpt-oss-120b は「 o4-mini 」に匹敵し、特に競技数学や健康関連の質問で上回る結果を記録しました。 gpt-oss-20b も「 o3-mini 」と同等またはそれ以上の性能を発揮し、数学やコーディング分野で特に優れた成績を残しています。
両モデルは最大 128,000 トークンのコンテキスト長に対応し、Chain-of-Thought (推論過程の可視化)や外部ツール使用機能を備えています。これにより、Web 検索や Python コード実行、API 呼び出しなど、エージェント型のワークフローに最適化されています。
OpenAI は安全性についても配慮を示し、化学・生物・サイバーセキュリティ関連データのフィルタリングや、悪意ある微調整への耐性テストを実施したと発表しています。ただし、PersonQA ベンチマークでは、 gpt-oss-120b が 49% 、gpt-oss-20b が 53% のハルシネーション率を記録し、既存の o1 (16%)や o4-mini (36%)よりも高い数値を示している点が課題として残されています。
このオープンウェイトモデルのリリースは、Meta の Llama や DeepSeek 、Alibaba の Qwen などの競合に対抗する戦略的な動きと見られています。 Apache 2.0 ライセンスにより Meta の Llama よりも制限が少なく、研究者や企業にとってより柔軟な活用が可能となります。現在、Hugging Face や GitHub からダウンロード可能で、AWS Bedrock 、Microsoft Azure 、Ollama などの主要プラットフォームでもサポートされています。