AI コーディングプラットフォーム「 Cursor 」のサポートエージェント「 Sam 」が実際には存在しない「新しいセキュリティポリシー」をユーザーに案内し、大量のサブスクリプション解約を招く騒動が発生しました。
発端は、あるユーザーが複数のデバイス間で Cursor を利用していた際、デバイスを切り替えるたびに強制ログアウトされる問題でした。このユーザーがサポートに問い合わせると、「 Sam 」と名乗る AI サポート担当者が「これは新しいセキュリティポリシーによる仕様で、1 つのサブスクリプションにつき 1 つのデバイスでの使用に制限されている」と説明。しかし、このポリシーは実在せず、 AI が根拠なく生成した「ハルシネーション(幻覚:嘘の情報)」でした。
このやり取りが Reddit や Hacker News などのプラットフォームで拡散されると、「マルチデバイス利用不可は致命的」「解約する」といった批判が殺到。実際に多くのユーザーがサブスクリプションを解約し、企業単位での利用停止も報告されました。一時的に Reddit のスレッドがロック・削除される事態にも発展しています。
騒動から数時間後、 Cursor の共同創業者 Michael Truell 氏が「そのようなポリシーは存在しない」と公式に説明し謝罪。強制ログアウト問題の原因は、セッションセキュリティ強化のためのバックエンド変更によるバグであり、それに AI サポートの誤った説明が重なったと説明しました。影響を受けたユーザーには返金対応も行われ、 AI によるサポート返信の運用方法も見直すと発表されました。
今回の件は、 AI サポートが「自信満々に誤情報を案内」するリスクを象徴する事例として、多くのメディアで報道されました。特に開発者向けツールのような技術的ユーザーが多いサービスでは、 AI の曖昧な対応や誤情報は即座に信頼失墜につながることが浮き彫りになりました。
専門家からは「 AI は『分からない』と言わず、もっともらしい説明を即興で作る傾向がある」「顧客対応に AI を使う場合は、人間による監督と透明性が不可欠」という指摘がなされています。
この事件は、 AI 活用の利便性と同時に、適切な監督や透明性がなければブランド信頼を一瞬で損なうリスクがあることを示した象徴的な事例となりました。今後、 AI を顧客対応に活用する企業にとって、同様のリスク管理がますます重要な課題となっています。