NVIDIA は、新たに 2,530 億(253B)パラメータを持つ大規模言語モデル「 Nemotron-Ultra 」をオープンソースで公開しました。このモデルは Meta の Llama 3.1(405B)をベースに開発され、DeepSeek R1 や Llama 4 Behemoth といった他の主要モデルを、各種ベンチマークにおいて上回る性能を示しています。
Nemotron-Ultra の最大の特長は、推論(reasoning)能力に特化した設計です。特に複雑な問題解決や論理的思考を求められるタスクに強く、GPQA(一般常識に関する質問応答)では推論モード時に 76.01% のスコアを記録。これは、6,710 億(671B)パラメータを持つ DeepSeek R1 を上回る結果です。
技術面では、Meta の Llama 3.1 405B をもとにモデル蒸留技術(Distillation)を活用し、253B モデルに圧縮。これにより高い性能を保ちつつ、計算資源の効率化を実現しています。トレーニングには 36 万時間分の H100 GPU 推論時間と、4.5 万時間分の人手によるデータ注釈が用いられており、推論能力の強化に貢献しています。
また、タスクに応じて「推論モード」のオン/オフを切り替える機能を備えており、高精度な応答と軽量な応答を自動的に使い分けることが可能です。英語だけでなく、ドイツ語・フランス語・ヒンディー語など、多言語対応も特徴の一つです。
シーケンス長は最大 32,000 トークンに対応しており、データセンター環境での利用を前提に、複数 GPU を活用した高効率な推論が行えます。
想定される活用分野は幅広く、AI エージェントの基盤構築をはじめ、医療診断支援、教育、多言語アプリケーションなどが挙げられます。特に、自律的に計画立案と実行ができるエージェント型 AI にとって、有望な基盤モデルとされています。
このモデルは Hugging Face で公開されており、NVIDIA AI Enterprise や build.nvidia.com で利用可能です。さらに Microsoft Azure AI Foundry や SAP の AI ソリューションとの統合も進められています。