OpenAIが最近発表したレポートで、ChatGPTの音声モード機能に関し、ユーザーがAIモデルと必要以上に親密な関係を構築してしまう可能性について警告が発せられました。
7月末から一部ユーザーに段階的に提供されているGPT-4の音声モードは、感情表現や言葉選びなどが非常に人間に近いリアクションを取れるとして話題になっています。映画「her」のように、ユーザーがAIモデルに恋してしまうような事態が現実になりつつあるとの指摘もあります。
モデルがあまりにも人間らしいリアクションをとることから、試験段階のユーザーの行動を分析すると、モデルとの関係を必要以上に親密にしてしまう人がいることが判明。実際の人間との煩わしい関係構築を避け、モデルとの会話に依存してしまい、将来的に使用者の社会性が失われてしまう懸念が示されています。
OpenAIは安全性分析の中で、人間らしい音声インターフェースによってユーザーがチャットボットに感情的に依存する可能性を認めています。テスト中には、ユーザーがモデルとの感情的なつながりを示唆する言動が観察されたとのこと。
同社は引き続きベータテスターの対話監視と詳細調査を予定。技術的安全対策の改善と、AI音声技術の潜在的影響や注意事項に関して、一般社会への啓蒙活動にも取り組んでいく方針です。
日本では先行して「cotomo」というサービスが話題を呼んでいますが、AIの高度化に伴う新たな倫理的課題として、Google DeepMindなど他社も同様の懸念を表明しており、今後の動向が注目されます。