中国の IT 大手 Tencent は、新しいオープンソース AI モデル「 Hunyuan-A13B 」をリリースしました。このモデルは、高い性能を維持しながら計算効率を大幅に改善した「ハイブリッド推論モデル」として注目を集めています。
Hunyuan-A13B の最大の特徴は、 Mixture-of-Experts ( MoE )アーキテクチャの採用です。総パラメータ数は 800 億 (80B)ですが、推論時に実際に使われる「アクティブパラメータ」は 130 億 (13B) のみです。この仕組みにより、非常に高い効率性と計算コストの削減を両立しています。
技術的な面では「ハイブリッド推論モード」を搭載しており、問題の難易度や用途に応じて「高速思考」と「低速思考」の 2 つのモードを切り替えることができます。日常的な会話では高速モードで迅速に応答し、複雑な推論や科学的課題では深い思考モードで精密な分析を行うなど、適応的なアプローチを実現しています。
また性能面では、 OpenAI の o1 や DeepSeek の R1 といった主要モデルと同等の性能を、数学、科学、コーディング、推論タスクで発揮しています。特に注目すべきは、他の同規模モデルと比較して 2.2 ~ 2.5 倍のスループットを実現していることです。高性能な GPU が 1 つあれば動作するため、個人の開発者や小さな企業でも手軽に利用できるようになっています。
また、 GoogleのGeminiなど100万トークンには及びませんが、25.6万 トークンのコンテキストウィンドウを備えており、法律文書や研究論文など非常に長いテキストを一度に処理できます。これにより、長大な文脈理解や知識管理タスクに強みを発揮します。
エージェント型 AI (ツール連携や自律的なタスク実行)向けに最適化されており、 BFCL-v3 や τ-Bench などの業界標準ベンチマークで高い成績を記録しています。さらに、データ圧縮技術により、より少ないメモリでより高速に動作するよう設計されており、推論効率をさらに向上させています。
Tencent はこのモデルをオープンソースとして GitHub や Hugging Face で公開しており、開発者や中小企業が自由に利用できます。許可制ライセンスとなっており、幅広いアプリケーションの構築が促進されることが期待されています。
同社は今回、Hunyuan-A13B と併せて、コード生成を評価する「 ArtifactsBench 」やエージェント型推論を評価する「 C3-Bench 」という 2 つの新しいベンチマークも公開し、実世界のタスクでの性能を証明しています。
このリリースは、中国の AI 競争力強化の一環であり、米国主導の AI 市場に挑戦する姿勢を示しています。 Alibaba の Qwen-VLo や DeepSeek の R1 と並び、中国の AI エコシステムが急速に成長していることを象徴する出来事です。