MiniMax が 400万トークンを処理可能な新モデル「 MiniMax-01 」シリーズを発表

投稿者:

中国の AI スタートアップ、MiniMax が「 MiniMax-01 」シリーズと呼ばれる 2 つのオープンソース AI モデルを発表しました。このシリーズは、「 Lightning Attention 」と呼ばれる新しいアプローチを採用しており、最大 400 万トークンのコンテキストウィンドウを維持しながら、高速かつ効率的な処理を可能にしています。

MiniMax-01 シリーズは、MiniMax-Text-01 と MiniMax-VL-01 の 2 つのモデルから構成されています。これらのモデルは、Lightning Attention と Softmax Attention を組み合わせたハイブリッドアーキテクチャを採用し、効率と精度のバランスを取っています。また、32 のエキスパートと 4560 億の総パラメータを持つ Mixture of Experts ( MoE )アーキテクチャにより、長い入力に対しても効率的に処理を行うことができます。

MiniMax-Text-01 は、推論時には 400 万トークンまで処理可能で、これは GPT-4o の 32 倍、Claude-3.5-Sonnet の 20 倍の長さです。それでいて標準的なベンチマークや内部ベンチマークでは、これらの競合モデルと同等のパフォーマンスを示しています。

MiniMax-01 シリーズはオープンソースとして公開されており、GitHub や Hugging Face で利用可能です。企業や開発者は MiniMax API を通じてもこれらのモデルを活用でき、料金は入力トークン 100 万件あたり ¥1 、出力トークン 100 万件あたり ¥8 からと低コストです。GPT-4o などと比較すると、コストは数十分の一から数百分の一と非常に安価で利用できます。

筆者の視点:中国の AI モデルの進化が止まりません。今回はアメリカの最先端の競合モデルと比べてはるかに大きいデータを処理でき、はるかに安価に提供されるモデルが発表されました。