GoogleはAIモデル「Gemini 2.0」の発表と合わせて、次世代のAIアシスタント「Project Astra」の大幅なアップデートを発表し、AIアシスタントの新しい可能性と将来の展望を明らかにしました。これは、翌日に発表されたOpenAIの「Vision Capability」とほぼ同様の機能です。
Project Astraは、テキストや音声だけでなく、画像や動画をリアルタイムで解析し、それに基づいて回答を提供するマルチモーダル対話能力を備えています。また、会話中の10分間の内容を記憶し、会話の流れを維持することで、ユーザーが繰り返し説明する必要を減らし、より自然な対話を可能にします。
さらに、Google Lens、Google Maps、Google SearchなどのGoogleアプリと統合されており、これらのツールを活用してより高度な情報提供やタスクの実行が可能となります。応答速度も人間の会話に近い低遅延を実現し、スムーズな対話体験を提供します。
Project Astraは、プロトタイプのAR眼鏡(Google Glass)でもテストが進められており、ユーザーが見ている世界をAIが「認識」し、リアルタイムで情報を提供する仕組みが注目されています。この眼鏡はAndroid XR上で動作し、将来的には一般消費者向けにリリースされる可能性があります。
現在、Project Astraは限定的に公開されていますが、一般公開の時期についてはまだ明らかにされていません。Project Astraは今年6月にデモのみが公開されていましたが、今回は実際に触ってみることができるようになりました。ただ、Googleの持つMapsなどのサービスと統合して、Googleの強みを活かせるようになってくるのは来年の前半くらいになりそうです。