Alibaba は 2026 年 2 月 16 日、Qwen3.5 シリーズの第一弾として Qwen3.5-397B-A17B を公開しました。総パラメータ数 397B(3970 億)を持ちながら、トークンごとに 17B のみをアクティブ化する MoE(Mixture-of-Experts)構造を採用し、Apache 2.0 ライセンスで Hugging Face にて提供されています。
本モデルは、必要に応じて 512 の異なる処理モジュールから最適なものを選んで実行する効率的な設計となっています。最大 256K トークン(約 26 万トークン)という膨大な文章量を一度に処理できる点も特徴です。特筆すべきは、Qwen オープンウェイトモデルとして初めて、テキストだけでなく画像も直接理解できるようになった点です。テキストと画像を同時に学習する手法を採用したことで、ウェブサイトの画面から HTML/CSS コードを生成したり、長時間の動画を秒単位で詳細に分析したりすることが可能になりました。
性能面では、1 兆パラメータを超える前世代の Qwen3-Max を複数の推論・コーディングタスクで上回り、Artificial Analysis Intelligence Index で 45 点を獲得してオープンウェイトモデル中第 3 位にランクインしています。LiveCodeBench v6 で 83.6、AIME26 で 91.3、GPQA Diamond で 88.4 のスコアを達成しました。
効率性も大幅に向上しており、256K コンテキスト長において Qwen3-Max の 19 倍のデコード速度を実現し、前世代比 60% のコスト削減を達成しています。Google Gemini 3 Pro の約 1/18 のコストで運用可能とされています。
多言語対応も強化され、サポート言語・方言は 119 から 201 に拡大し、語彙サイズも 150K から 250K に増強されました。さらに 15,000 の異なる強化学習訓練環境を使用してエージェント性能を強化し、Model Context Protocol(MCP)サポートと複雑な関数呼び出し機能を搭載しています。
Alibaba Cloud Model Studio 経由で Qwen3.5-Plus API が利用可能で、chat.qwen.ai では無料評価アクセスも提供されています。
