OpenAIが待望の「Advanced Voice Mode (AVM)」を有料ユーザー向けに公開を開始しました。この機能は、AIとの対話をより自然で個人的なものにすることを目的としており、応答速度の向上や新しい音声の追加など、多くの改善が施されています。
AVMでは、人間とほぼ同じ0.3秒で応答できるようになり、従来の応答時間から大幅に改善されました。また、「Arbor」「Maple」「Sol」「Spruce」「Vale」という5つの新しい音声が追加され、合計9種類の音声から選択できるようになりました。外国語のアクセントへの対応も向上し、会話がよりスムーズになっています。
さらに、「Custom Instructions」と「Memory」機能がAVMでも利用可能になり、ユーザーの好みに合わせた応答が可能になりました。視覚的には、青いアニメーションボールで表される新しいデザインが導入されています。
この新機能は、ChatGPT PlusとTeamsの有料ユーザーが対象であり、企業および教育ユーザーは翌週から使えるようになる予定です。提供は順次行われ、今週中に完了する予定ですが、EU、イギリス、スイス、アイスランド、ノルウェー、リヒテンシュタインではまだ利用できません。
AVMは、ビジネス、教育、医療など様々な分野での活用が期待されています。例えば、24時間体制のカスタマーサポート、語学学習、医療記録の作成などに利用できる可能性があります。OpenAIは安全性を確保するため、45の言語にまたがる100人以上の外部レッドチームを活用してテストを行っていますが、この技術の使用にはセキュリティとプライバシーの観点から一定の注意が必要です。
使ってみた人たちからはその応答性能の高さに驚きの声が次々と上がっています。筆者は残念ながら現在EU圏内に出張中のため、対象地域から外れていて利用できませんが、アメリカに戻ったら使ってみたいと思います。