Google「Gemini 3 Flash」:速度と知能を両立した Google 各種サービスの新デフォルトモデルを発表

投稿者:

Googleは、速度を最適化しつつ高度な知能を維持することを目指した最新フラッグシップモデル「Gemini 3 Flash」をこのほど展開しました。このモデルは、すでに Gemini アプリおよび Google 検索の AI モードにおける新しいデフォルトモデルとして位置づけられています。

Gemini 3 Flash の最大の特徴は、これまで AI モデルが抱えていた「速度と精度のトレードオフ」という課題を克服している点にあります。応答速度を大幅に向上させながらも、最先端レベルの知能を維持しているのが強みです。Google 自身のベンチマークでは、博士号レベルの科学的推論テスト「GPQA Diamond」で 90.4 %、マルチモーダル理解度を評価する「MMMU Pro」で 81.2 % という高いスコアを記録しています。また、コーディングベンチマーク「SWE-bench Verified」でも 78 % を達成し、より大規模なモデルに匹敵する性能を示しています。

機能面では、テキストだけでなく画像や音声、動画も処理できるマルチモーダル対応に加え、100 万トークンを超える広大なコンテキストウィンドウを備えています。これにより、数百ページにおよぶ文書や数時間の動画データを一度に読み込み、全体を把握した上での要約や分析が可能になります。

このモデルは、開発者や企業向けにも提供されています。Google AI Studio や Vertex AI を通じて利用でき、API で提供される Gemini モデルの中では最も高速かつコスト効率の高い選択肢となります。従来の Gemini 2.5 Pro と比較して、平均で 30 % 少ないトークンで同等のタスクをより正確に完了できるため、特に大規模で高頻度の処理が求められる用途に適しています。

Gemini 3 Flash は、応答性を重視していた前世代の Flash モデルからも大きな進化を遂げています。単に高速なだけでなく、複雑な意思決定にも対応できる「Pro 級」の推論精度を備えており、AI の活用シーンをさらに広げる存在となりそうです。Google のサービス全体でデフォルトとして採用されたことで、多くのユーザーが日常的にその恩恵を受けることになるでしょう。