Google が 2025 年 4 月 14 日に発表した「DolphinGemma」は、イルカの音声通信を解析し、生成するために設計された新しい AI モデルです。このプロジェクトは、ジョージア工科大学およびワイルド・ドルフィン・プロジェクト(Wild Dolphin Project, WDP)と共同で開発され、イルカのコミュニケーションの構造やパターンを解明し、将来的には人間とイルカの双方向コミュニケーションを実現することを目指しています。
DolphinGemma は、Google の軽量な AI モデル「Gemma」シリーズを基盤に構築された、約 4 億(0.4B)パラメータの小型言語モデルです。このモデルは、テキスト処理を主目的とする従来の言語モデルとは異なり、イルカの音声(クリック音、ホイッスル、バーストパルスなど)を処理する「オーディオ入力・オーディオ出力」モデルとして設計されています。
技術的には、Google の音声処理技術「SoundStream」を活用し、イルカの音声をトークンと呼ばれる離散的な単位に変換して処理します。これは、まるで人間の文章における「次の単語」を予測するように、イルカの音声の「次の音」を予測する仕組みです。
モデルは軽量に設計されており、Google Pixel スマートフォン上で動作可能です。これにより、研究者は水中でのリアルタイム解析に重い機材を必要とせず、防水仕様の Pixel 9 や骨伝導ヘッドフォンを使ってイルカの音声を聞き、応答することができます。
DolphinGemma は、WDP と Georgia Tech が開発中の CHAT(Cetacean Hearing Augmentation Telemetry)システムと連携して運用されます。このシステムでは、特定の物体(例:海草やスカーフ)に人工的なホイッスル音を割り当て、イルカにその音と物体の関連付けを教えます。研究者がその音を発し物体を見せる行為を繰り返すことで、イルカにその音の模倣を促します。
イルカが正しく音を模倣した場合、対応する物体を与えることで「この音=この物体」という関連付けを強化します。最終的には、イルカが自発的にその音を発した際に研究者が物体を提供するという、簡単な「会話」の成立を目指しています。DolphinGemma の AI 技術によって、これらの音声パターンをリアルタイムで認識し、まずは単語から始まり、将来的にはより複雑なコミュニケーションの可能性を探る、としています。
Google は 2025 年夏に DolphinGemma をオープンソースモデルとして公開する予定です。