米Bloombergが報じたところによると、アップルは次世代のSiriアシスタントの開発を進めており、その詳細が明らかになってきました。社内では「LLM Siri」と呼ばれるこのプロジェクトは、より自然な会話と複雑なタスク処理を可能にする大規模言語モデル(LLM)を採用するとのこと。新しいSiriは、ChatGPTやGoogle Geminiのような対話能力を持ち、より人間らしい会話が可能になると期待されています。
アップルは段階的な実装計画を立てており、2024年12月には現行のApple IntelligenceにChatGPTの統合とAIで生成された絵文字機能(GenMoji)の追加が予定されています。2025年にはiOS 19およびmacOS 16の一部として正式発表され、新しいユーザーインターフェースも導入される見込みです。そして、2026年春には一般ユーザー向けに完全版がリリースされ、そこではアップル独自のLLMが使用される予定とのことです。
新Siriの機能には、第三者製アプリのコントロール、テキスト作成や要約機能、画面上のコンテキストを理解した応答、より個人化された応答、などが含まれます。アップルは自社開発のLLMを使用することで、セキュリティとプライバシーの利点を強調する予定ですが、特定の機能に関しては、サードパーティのAIモデルへのアクセスも継続して提供される可能性があります。
アップルの慎重なアプローチは、同社のいつもの開発スタイルですが、すでにChatGPTやGoogleの開発が着実に進行している中で、この遅れを懸念する声もあります。新しいSiriがユーザーの期待に応えられるかどうか、その進化に注目が集まります。