台湾の電子機器受託製造大手 Foxconn(鴻海精密工業)が、同社初となる大規模言語モデル「 FoxBrain 」を 2025 年 3 月 10 日に発表しました。このモデルは製造業やサプライチェーン管理の効率化を目的としており、驚くべきことにわずか 4 週間という短期間で開発されたことで注目を集めています。
FoxBrain は Meta のオープンソースモデル「 Llama 3.1 」をベースに構築され、70 億パラメータを持ち、最大 128k トークンのコンテキストウィンドウをサポートしています。特徴的なのは伝統的な中国語(繁体字)と台湾の言語スタイルに最適化されている点で、台湾初の推論能力を持つ大型言語モデルとして位置づけられています。
開発の迅速さを可能にしたのは、Nvidia との強力な協力関係です。Foxconn は台湾にある Nvidia のスーパーコンピューター「 Taipei-1 」を活用し、H100 GPU 120 基を使用してトレーニングを実施。さらに Nvidia の技術コンサルティングと開発フレームワーク「 NeMo 」を利用することで、効率的かつ低コストでのモデル構築を実現しました。同社は「計算能力を盲目的に積み上げるのではなく、トレーニングプロセスの最適化に焦点を当てた効率的な戦略」を採用したと述べています。
性能面では、FoxBrain は数学や論理的推論のベンチマーク( TMMLU+ など)で既存の伝統的中国語モデル「 Llama-3-Taiwan-70B 」を多くのカテゴリで上回る結果を示しました。中国の「 DeepSeek 」モデルと比較すると若干の性能差があるものの、全体的な性能は世界トップレベルに近いと評価されています。
FoxBrain の主な能力には、データ分析、意思決定支援、文書コラボレーション、数学的推論、問題解決とコード生成などが含まれ、同社の 3 大プラットフォーム(スマート製造、電気自動車、スマートシティ)のアップグレードを推進する重要なエンジンとなる予定です。
Foxconn は FoxBrain をオープンソース化し、一般公開する計画を明らかにしています。詳細な内容は 2025 年 3 月 20 日に開催される Nvidia GTC 2025 カンファレンスで初めて公開される予定となっています。