仏 Mistral が初の推論モデル「 Magistral 」発表、多言語対応と透明性で差別化を図る

投稿者:

フランスの AI 企業 Mistral は 2025 年 6 月 10 日、初の推論( reasoning )モデルファミリー「 Magistral 」を発表しました。このモデルは、複雑な問題に対して透明性の高い多言語推論を可能にすることを強みとし、AI の推論分野における新たな選択肢として注目されています。

Magistral の最大の特徴は、推論プロセスの透明性です。問題解決の過程を「ステップ・バイ・ステップ」で論理的に分解し、ユーザーが推論の流れを追跡・検証できるよう設計されています。これは「 Chain-of-Thought (思考の連鎖)」方式を採用したもので、法務や金融、医療など説明責任が求められる分野で特に有用です。

多言語対応も大きな強みとなっています。英語だけでなく、フランス語、スペイン語、ドイツ語、イタリア語、アラビア語、ロシア語、中国語など多数の言語で高精度な推論が可能です。従来モデルでは英語以外の推論性能が大きく落ちる傾向がありましたが、Magistral は AIME 2024 ベンチマークで英語以外の言語での性能低下を 4.3 〜 9.9% と最小限に抑えており、この課題に対して大きな進展を示しています。

Magistral は 2 つのバリエーションで提供されます。「 Magistral Small 」(24 億パラメータ)は Apache 2.0 ライセンスのオープンソース版で、Hugging Face などで自由にダウンロード・改変・利用が可能です。一方、「 Magistral Medium 」はより高精度な商用版で、API やクラウドプラットフォーム経由で提供され、エンタープライズ用途を想定しています。

技術面では、「 Flash Answers 」システムにより従来モデル比で最大 10 倍のトークンスループットを実現し、リアルタイムの対話にも強みがあります。トークン処理速度は最大 1,000 トークン/秒で、企業向けアプリケーションでのリアルタイム処理に適しています。

ベンチマーク結果では、AIME 2024(数学推論)で Magistral Medium が 73.6% 、Magistral Small が 70.7% のスコアを記録しました。STEM やコーディング分野でも、MATH-500(数学)で 94.3% (Medium)、LiveCodeBench(コーディング)で 59.4% (Medium)など、競争力のある結果を示しています。

ただし、DeepSeek V3 や OpenAI の o3-pro 、Google の Gemini 2.5 Pro などのトップモデルと比較すると、STEM やコーディング分野の一部ベンチマークでやや劣る結果となっています。また、現在のコンテキストサイズは 40,960 トークンで、競合他社の 100K 超トークン対応モデルに比べ、複雑な長文タスクでは制限があるとの指摘もあります。

企業向けの価格設定は、入力トークン 100 万あたり 2 ドル(約 290 円)、出力トークン 100 万あたり 5 ドル(約 725 円)となっており、規制業界での「追跡可能な推論」が強みとされています。Amazon SageMaker で利用可能で、近日中に IBM Watsonx 、Microsoft Azure AI 、Google Cloud Marketplace でも提供予定です。

Magistral は、モデルの規模よりも推論の透明性と速度、多言語対応を重視した戦略的なモデルです。欧州初の推論モデルとして、米国や中国の AI 覇権に挑戦する姿勢を示しており、特に欧州や非英語圏での採用拡大が期待されています。直近で 6.2 億ユーロの評価額とフランス政府の支援を受け、欧州の AI リーダーとしての地位確立を目指しています。