Google が Gemini Live の「 Project Astra 」を拡大、 Android デバイスにリアルタイム視覚 AI 機能を提供

投稿者:

Google は、AI アシスタント「 Gemini Live 」に搭載されている「 Project Astra 」機能を拡充し、より多くの Android デバイスでリアルタイムのビジュアル AI 機能を利用できるようにすると発表しました。これにより、ユーザーはスマートフォンのカメラや画面を共有し、より直感的に AI アシスタントとやり取りできるようになります。

「 Project Astra 」は Google が開発中の次世代 AI アシスタント技術で、テキスト・音声・画像・映像など、さまざまな入力情報をリアルタイムに理解・処理できる「ユニバーサル AI エージェント」を目指しています。この技術は Google I/O 2024 で初公開され、2024 年 8 月に「 Gemini Live 」として初の一般向け機能が導入されました。

新たに追加された主な機能のひとつが「リアルタイムカメラ共有」です。これにより、ユーザーはスマートフォンのカメラを通して現実の映像を Gemini Live と共有し、たとえば服のコーディネートを提案してもらったり、書類の要約や翻訳を依頼できたりできます。AI はライブ映像を解析し、ユーザーが見ている対象について即座に質問に答えてくれます。

さらに「画面共有機能」も加わり、ユーザーは Android デバイスの画面を AI に見せながら、画面上の内容について会話できるようになりました。たとえば、ウェブサイトの閲覧中やアプリの設定画面で困った際に質問すると、AI がリアルタイムでサポートしてくれます。

これらの機能は当初、Google Pixel や Samsung Galaxy S25 シリーズといった一部のデバイスに限定されていましたが、今回の拡張により、Android 10 以降を搭載したほぼすべての Android デバイスで利用可能になります。ただし、これらの機能を使うには「 Gemini Advanced 」( Google One AI Premium プラン、月額約 20 ドル/約 3,000 円)への加入が必要です。