Google が「 Search Live with AI Mode 」を米国でリリース

投稿者:

Google が検索の新機能「 Search Live with AI Mode 」を米国でリリースしました。 AI モデル Gemini を活用したこの機能により、音声で Google 検索とリアルタイムに会話できるようになり、従来のテキスト検索を大きく進化させています。

最大の特徴は、音声による対話型検索です。 Google アプリの「 Live 」アイコンをタップして話しかけるだけで、 Gemini が質問に音声で回答します。従来のように検索結果の一覧を見て適切なページを探す必要がなく、 AI と自然な会話の流れで追加の質問も続けられます。

技術面では、カスタマイズされた Gemini モデルを採用し、自然な対話と高精度な情報検索を両立しています。「クエリ・ファンアウト」技術により、複数のサブトピックに同時検索をかけ、より幅広く深い情報を集約することが可能です。

実用性の面でも配慮されており、 AI の音声回答と同時に関連するウェブリンクが画面に表示されるため、詳細な情報が必要な場合はすぐにリンクから確認できます。また、「トランスクリプト」ボタンで会話内容をテキストで確認でき、途中から文字入力に切り替えることも可能です。

他のアプリを使いながらでも会話を継続できるマルチタスク機能も搭載されており、移動中や作業中でも便利に利用できます。会話履歴は AI Mode の履歴として保存され、後から見返すことも可能です。

今後の拡張予定も発表されており、まもなくカメラ入力にも対応する計画です。カメラで見ているものについてリアルタイムで質問できるようになれば、数学の方程式や現実世界のモノについても視覚情報を活用した回答が期待できます。

この機能は、 OpenAI の ChatGPT や Perplexity のような会話型 AI ツールの台頭に対抗する Google の戦略的な動きとして注目されています。従来の「リンクの羅列」から「包括的な回答エンジン」への進化を目指しており、検索体験そのものを会話型に変革しようとしています。

現時点では米国の AI Mode 実験参加者向けの機能として提供されていますが、 2025 年 6 月 24 日にはインドでも初の国際展開が開始されました。インドでは音声検索や Google Lens の人気を背景に、音声・テキスト・画像を通じたマルチモーダル検索がサポートされています。

Google は、ユーザーからのフィードバックをもとに機能改良を進める方針を示しており、さらなる言語対応も計画されています。


筆者の視点:Google の検索サービスの進化は、まるで徐行運転のようにノロノロと進められています。これは、既存の検索広告ビジネスを壊さないように、広告主の顔色を伺いながら段階的に新機能を導入しているためだと思われます。そうこうしているうちに、AI のアーリーアダプター層は、ChatGPT や Perplexity といった AI 特化型のサービスを使って検索を行うようになっており、もはや検索で Google に戻ることはないでしょう。

Google は、AI 検索に本格的に移行するだけの技術力を「十分に」持っています。しかし実際には、既存のビジネスモデルとどう折り合いをつけるかという課題を抱えており、ユーザーの流出をこれ以上食い止められるかどうかが大きな焦点です。一方で、AI 検索専業のサービスは、次々と新機能を追加し、ユーザー体験の面で Google を引き離す勢いです。

果たして、Google が既存ビジネスとの調整を乗り越え、本格的に AI 検索へ舵を切るのが先か、それとも AI 専業サービスがさらに進化して、Google が追いつけないところまで突き進むのが先か――今後の動向から目が離せません。