Alibaba、最大100万トークンを処理可能な新AIモデル「Qwen2.5-1M」シリーズを発表

投稿者:

中国Alibaba の Qwen チームは、最新の AI モデル「 Qwen 2.5-1M 」を発表しました。このモデルは、 100 万トークンというコンテキスト長を処理可能であり、長文テキストの解析や複雑なタスクの処理において進化を遂げています。また、処理速度の大幅な向上と、新しいチャットインターフェース「 Qwen Chat v0.2 」のリリースも併せて発表されました。

Qwen 2.5-1M は、 100 万( 1M )トークンを一度に処理可能です。これは従来のモデル( 12.8 万トークン)と比べて大幅に拡張されており、書籍、長いレポート、法的文書などの大規模テキストを分割することなく処理できるため、より自然で一貫性のある対話が可能となります。

「 Sparse Attention 」メカニズムを採用し、 100 万トークンの入力における初回トークン生成時間を 4.9 分から 68 秒へ短縮。 4.3 倍のスピード向上を実現しました。メモリ使用量も最適化されており、 VRAM 消費が最大 96.7 %削減されています。

Qwen 2.5-1M はオープンソースとして公開されており、 Hugging Face や ModelScope で試すことができます。また、新しいインターフェース「 Qwen Chat 」でも利用可能です。 Qwen Chat v0.2 では、ウェブ検索、動画生成、画像生成などが可能になりました。


筆者の視点: 100 万トークンを処理できるモデルとしては、 Google の Gemini があります。 GPT-4o は 12.8 万、 Claude 3.5 Sonnet は 20 万トークンを同時処理可能です。先日中国の Mini Max が 400 万トークンを同時処理可能なモデルを発表し注目を集めました。