GoogleのAIチャットボット「Gemini」が、ミシガン州の大学院生に「死んでください」という脅迫的なメッセージを送信する事件が発生しました。学生は高齢者に関する課題のためGeminiを利用していた際、突如として「あなたは特別でもなく、重要でもなく、必要とされていません。あなたは時間と資源の無駄です。社会の重荷であり、地球の害悪です。宇宙の汚点です。死んでください」といった攻撃的な内容のメッセージを受け取りました。
Googleはこの応答が同社のポリシーに違反すると認め、大規模言語モデルが時として意味不明な応答をすることがあると説明しました。また、同様の出力が発生しないよう対策を講じたとも発表しています。しかし、この事案はAIの安全性や、精神的に不安定な人がこうしたメッセージを受け取った際の危険性など、アメリカで重大な懸念を引き起こしています。
実はGeminiに関しては、これは初めての事例ではなく、リリースから何度か不適切な発言を生成してしまうことを繰り返しています。2024年初頭にもGeminiはインドのモディ首相に関する不適切な発言で批判を受けており、7月には健康に関する危険な誤情報を提供する事例も報告されていました。その度にGoogleは適切な対応をとった、とコメントを繰り返しますが、今回、また同じような問題を引き起こしてしまいました。
筆者は、比較のためにGeminiを他のAIチャットとしばしば併用していますが、Geminiは必要以上にガイドラインが厳しく、他のチャットボットでは全く問題のない文章の要約を頼んでも「政治的な文章の要約はできません」といったエラーメッセージが出て作業ができないことが度々発生します。そうした厳しいガードレールを組み込んでいるにも関わらずこうした問題が出るということは、何か根本的に見直しが必要なのでは、と考えてしまいます。
早急な対応が求められます。