中国 Zhipu AI が GLM-5 を発表、Claude Opus に迫る性能を実現

投稿者:

中国・北京に拠点を置く Zhipu AI は 2026年 2月 11日、7440億 ( 744B ) パラメータを持つ大規模言語モデル GLM-5 を発表しました。同モデルは Huawei Ascend 910B チップのみで訓練されており、NVIDIA 製ハードウェアへの依存を完全に排除した点が特徴です。

GLM-5 は Mixture of Experts 構造を採用しており、推論時には 400億のアクティブパラメータで動作します。事前学習データは 28.5兆トークンで、前世代 GLM-4.5 の 23兆から 23.9% 増加しました。コンテキストウィンドウは 20万( 200K )トークンで、DeepSeek Sparse Attention 機構により長文処理コストを削減しています。

ベンチマーク性能では、ソフトウェアエンジニアリング能力を測る SWE-bench Verified で 77.8% を記録し、オープンソースモデル中 1位を獲得しました。Claude Opus 4.5 の 80.9% に 3.1ポイント差まで迫る結果です。また、Artificial Analysis AA-Omniscience Index では -1 のスコアを叩き出し、業界最低のハルシネーション率を達成しています。

価格面では、公式 API が入力 100万トークンあたり 1.00ドル(約 150円)、出力 100万トークンあたり 3.20ドル(約 480円)となっており、Claude Opus 4.5 と比較して大幅に安価です。モデルは HuggingFace で MIT ライセンスのもと公開されており、世界中の開発者が無料でアクセスできます。

Zhipu AI は清華大学から派生した企業で、2026年 1月 8日に香港 IPO で 43.5億香港ドル(約 837億円)を調達しました。AI 専門家の Andri Möll 氏は、6か月前には 12〜18か月の遅れがあった中国の AI 技術が、現在では数週間、場合によっては数日にまで差が縮まったと指摘しています。GLM-5 の登場は、最先端 AI 能力がもはや米国企業の専有領域ではないことを示すものとなりました。