Google、超軽量 AI モデル Gemma3 270M を発表

投稿者:

Google は 2025 年 8 月 14 日、新しいオープンソース AI モデル「 Gemma3 270M 」を発表しました。このモデルは 2 億 7000 万( 270M )パラメータという非常にコンパクトな設計で、スマートフォンやブラウザなどの低消費電力デバイス上で直接動作できる点が特徴です。

Gemma 3 270M は、Gemma ファミリーの最新かつ最もコンパクトなモデルとして位置づけられています。2 億 7000 万のパラメータは、言葉を数値に変換する部分(埋め込み層)に約 6 割、実際の推論を行う部分(トランスフォーマーブロック)に約 4 割が配分されています。また、256,000 トークンの大規模な語彙を持つため、法律、医療、技術分野などの専門用語を効果的に処理でき、特定領域でのファインチューニングに適しています。

エネルギー効率の面では驚くべき性能を示しています。Google の内部テストでは、Pixel 9 Pro でモデルをより軽量化する設定で使用した場合、25 回の会話でバッテリーのわずか 0.75% しか消費しないことが確認されました。この高い効率性により、バッテリー寿命や熱管理が重要なモバイルデバイスでの使用に最適化されています。

開発効率の面でも大きな利点があります。モデルサイズが小さいため、特定の用途に合わせた学習調整を数時間で完了できます。使用用途として例えば、重要な情報の抽出、ユーザーからの問い合わせの振り分け、データの整理、コンプライアンスチェック、クリエイティブライティングなど、大量の処理を必要としつつ、処理がわかりやすい特定の作業に適しています。、

プライバシーとオフライン機能も重要な特徴の一つです。クラウドに依存せずローカルで動作するため、機密データを扱う場合や接続が不安定な環境での使用に有利です。

性能面では、指示に従う能力を測定するテストで 51.2% のスコアを記録しました。これは同等サイズの競合他社モデルを上回る結果で、よりサイズの大きなモデルにも匹敵する性能を示しています。ただし、一部の競合モデル(Liquid AI の LFM2-350M モデルなど)には及ばないという指摘もあります。

このモデルは Hugging Face、Ollama、Kaggle、LM Studio、Docker などの主要プラットフォームで利用可能となっており、事前学習済みモデルとインストラクションチューニング済みモデルの両方が提供されています。また、Google の Vertex AI や Google Cloud Run にも統合されており、企業向けの展開も容易です。

Gemma 3 270M の登場は、業界の小型言語モデル(SLM)への注目度上昇と一致しています。Microsoft の Phi シリーズ、Mistral AI の Small 3、Hugging Face の SmolVLM など、効率的で特定タスクに特化したモデルも利用が進んできています。これらは巨大な汎用モデルよりも特定の用途に特化した精密さを重視し、実際のビジネスや日常でも十分利用価値の高いモデルといえます。

Google は「適切なツールを選ぶ」という哲学を強調し、Gemma 3 270M を大規模モデルに代わる効率的でコスト効果の高い選択肢として位置付けています。すでに累計で 200 百万以上のダウンロードを記録した Gemma ファミリーの成功は、効率的なオープンソースモデルへの強い需要を示していると言えるでしょう。