AI2 が Olmo 3.1 をリリース、完全オープンソースの 32B 推論モデルが登場

投稿者:

Allen Institute for AI(AI2)は2024年12月、オープンソース言語モデル「Olmo 3.1」をリリースしました。同モデルは7B と 32B パラメータの2種類で提供され、65,000トークンのコンテキストウィンドウを搭載しています。これは前世代の Olmo 2 の16倍に相当する長文処理能力です。

Olmo 3.1 の開発には60人以上の著者が参加し、Google Cloud の A3 Mega Cluster 上で Nvidia H100 GPU を使用して訓練されました。強化学習トレーニングを21日間実施し、224個の GPU で Dolci-Think-RL データセットを活用しています。

性能面では、Olmo 3.1 32B Think が AIME 2025ベンチマークで Qwen 3 32B モデルを上回り、Gemma 27B に匹敵する結果を示しました。AIME、ZebraLogic、IFEval、IFBench の各テストで大幅な改善を実現しています。

最大の特徴は「完全な透明性」です。Apache 2.0ライセンス下でデータ、コード、重み、チェックポイントが公開され、OlmoTrace ツールによりモデル出力をトレーニングデータまで遡及追跡できます。6兆トークンの Dolma 3 データセットを使用し、3段階のトレーニングプロセスを経て開発されました。

AI2 は8月に National Science Foundation と Nvidia から1億5,200万ドル(約228億円)の研究資金を獲得しており、科学研究用の完全オープンマルチモーダル AI モデル構築において主要な役割を担っています。現在 Ai2 Playground と Hugging Face で利用可能で、API アクセスは近日公開予定です。