Googleは最新のAIモデル「Gemma 2 2B」を発表しました。このモデルは、わずか2B(20億)パラメーターながら、OpenAIのGPT-3.5やMixtral 8x7Bなどの大規模モデルを上回る性能を発揮しています。
Gemma 2 2Bは、2兆トークンのデータセットでトレーニングされ、Chatbot ArenaでGPT-3.5 TurboやMixtral 8x7Bと同等のスコアを獲得しています。また、ラップトップからクラウド上での使用まで幅広いハードウェアで効率的に動作します。特に、NVIDIA TensorRT-LLMライブラリで最適化されており、処理スピードが向上しています。
また、Googleは新しいツールとして、AIモデルの入出力を安全性の観点からフィルタリングする「ShieldGemma」と、モデルの内部動作を理解するためのツール「Gemma Scope」も発表しました。
Gemma 2 2Bは、開発者や研究者がより安全で強力なAIアプリケーションを構築するための新しいツールとして期待されています。モデルはオープンソースで公開されていて、Kaggle、Hugging Face、Google AI Studioなどでダウンロード可能です。
最近は、ラップトップなどの手元のデバイスで動く軽量モデルの発表が相次いでいます。簡単な処理であれば手元のデバイスで動作する軽量モデルで完結させ、もっと高度な処理をする際にはオンラインに接続してパラメーター数の大きいモデルで高度な処理をするという組み合わせで動作させる使い方が一般的になるものと思われます。
そのため、従来の大規模モデルを高度化させていく開発の方向性と、軽量モデルをもっと効率的で軽量にする開発の方向性の両方が、今後も続いていくものと予想されます。