中国の AI ラボ、DeepSeek は最近、「 DeepSeek-R1 」と呼ばれるオープンソースの推論モデルをリリースしました。このモデルは、数学やコーディング、推論タスクにおいて、OpenAI の「 o1 」と同等またはそれ以上の性能を示しながら、API の利用料金は o1 の 5〜10 % 程度に抑えられています。
DeepSeek-R1 は、6710 億のパラメータを持ち、MIT ライセンスの下でオープンソース化されています。AIME 2024 では 79.8 % の正答率を記録し、o1 の 79.2 % を上回りました。また、Codeforces での評価は 96.3 % で、o1 に近い性能を発揮しています。
技術的には、DeepSeek-R1 は強化学習を用いた多段階アプローチを採用し、自己進化を促進するための教師なし学習と教師あり学習を組み合わせることで、推論能力を大幅に向上させています。
オープンソース化と低コストにより、DeepSeek-R1 は多くの開発者や企業に利用されることが期待されています。今後、AI 市場における競争をさらに激化させる可能性を秘めたモデルとして注目を集めています。
筆者の視点:年末に低予算・短期間で開発した LLM が GPT-4o と同等の性能を示したことで世間を驚かせた DeepSeek がまたやってくれました。
年末に発表した V3モデル( GPT-4o と同性能)はわずか 2 ヶ月の開発期間と、550 万ドル程度(約 82 億円)程度の「極めて安価」なコスト、NVIDIA の「 A100 」という性能の落とした GPU で開発された、として大きな注目を集めました。今回の R1 に関しては、開発期間やコスト、GPU の詳細については公表されませんでしたが、利用するコストが o1 の 10 分の 1 以下で済む、ということから推測するに、やはり非常に安価なコストで開発されたのではないか、と思われます。
この事実が提起する AI 業界へのインパクトは非常に大きなものとなりました。あまりにも影響が大きすぎるのでここで書くと長くなってしまいました。その考察はまた別の記事にまとめたいと思います。
また、ちょうどダボス会議が開催されている中でこの発表が行われたことで、ダボス会議に集まった AI リーダーたちも各種インタビューで一様にこのことを取り上げて話題となっています。