Mistral AIが少ないパラメータ数で高性能を実現する「Mistral Large 2」を発表

投稿者:

フランスのMistral AIが、新たな大規模言語モデル(LLM)「Mistral Large 2」を発表しました。このモデルは、先日発表されたMetaのLlama 3.1と比べて1/3以下の少ないパラメータ数でありながら、同等レベルの性能を達成しています。

Mistral Large 2は、123B(1230億)のパラメータを持ち、単一ノードでの推論に最適化されています。コード生成、数学、推論において大幅に性能が向上し、MMLUベンチマークでは84.0%の精度を達成しました。

Mistral Large 2は、GPT-4o、Claude 3 Opus、Llama 3 405Bなどの主要モデルと同等の性能を発揮します。また、ハルシネーション(もっともらしいが不正確または無関連な情報)を生成する傾向を最小限に抑えるための微調整が行われ、指示に従う能力と会話能力が大幅に向上しています。

多言語サポートも強化されており、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、アラビア語、ヒンディー語、ロシア語、中国語、日本語、韓国語など、多くの言語に対応しています。また、80以上のコーディング言語(Python、Java、C、C++、JavaScript、Bashなど)をサポートしています。

Mistral Large 2は、今までのMistralと同様にオープンソースで公開されており、la Plateformeでmistral-large-2407として利用可能です。また、Google Cloud Platform、Microsoft Azure AI Studio、Amazon Bedrock、IBM watsonx.aiなどの主要なクラウドサービスプロバイダーを通じてアクセスできます。

ここ数日の間に、オープンソースのLLMが急速な進歩を遂げ、着実に商用モデルに追いついてきています。Mistral Large 2の発表は、少ないパラメータ数でも高性能を実現できることを示した点で重要な発表となりました。

OpenAIやAnthropicなどの商用LLMがこうしたオープンソースモデルのリリースにどのように反応し、新しいバージョンでどのような差別化を図るのか、注目が集まっています。