Alibaba、新たな大規模言語モデル「 Qwen2.5-Max 」を発表

投稿者:

中国のテクノロジー大手 Alibaba は 2025 年 1 月 28 日、最新の大規模言語モデル( LLM )「 Qwen2.5-Max 」を発表しました。このモデルは、Mixture of Experts ( MoE )アーキテクチャを採用し、DeepSeek-V3 や GPT-4o 、Claude 3.5 Sonnet といった他の主要な AI モデルを複数のベンチマークで上回る性能を示したとされています。

Qwen2.5-Max は、20 兆以上のトークンを使用して事前トレーニングが行われ、教師ありファインチューニング( SFT )や人間のフィードバックを活用した強化学習( RLHF )による最適化が施されています。モデルの規模を示すパラメータ数は 1000 億( 100B )に達しています。

性能面では、問題解決能力を測る Arena-Hard で 89.4 という最高スコアを達成し、知識と推論能力を評価する MMLU-Pro でも 76.1 を記録するなど、他のモデルを上回る結果を残しています。また、LiveCodeBench や LiveBench といった実用的なタスクにおいても優れた性能を示しました。

Qwen2.5-Max は、Alibaba Cloud を通じて API として利用可能で、同社の「 Qwen Chat 」でも利用できます。ただし、DeepSeek のように完全なオープンソースではなく、利用には Alibaba のインフラを介する必要があります。

Qwen2.5-Max の登場は、中国の AI 技術が世界の最先端に近づいていることを示しています。特に、コスト効率の高い MoE アーキテクチャを採用したことで、インフラコストを 40 ~ 60 % 削減できる可能性があるとされ、企業や研究機関にとって実用的な選択肢となることが期待されています。


筆者の視点:同じく中国に基盤を持つ DeepSeek に触発されたのか、Alibaba が立て続けに新しいモデルの発表を行なっています。DeepSeek の発表が本当であれば、LLM の開発は非常にハードルが低いものとなりましたので、今後、新モデルの開発競争は激化していきそうです。ただ、基盤モデルの成長はそもそもある程度上限に近いところまで来ていると言われていましたので、今後の AI イノベーションの主戦場はエージェント化など、少し違うところになりそうです。