Character.AI が18歳未満の利用を完全禁止へ、自殺事件を受けAI業界初の措置

投稿者:

AI チャットボット大手の Character.AI が、18歳未満のユーザーによるチャットボット利用を 2025年11月25日 から完全に禁止すると発表しました。主要な AI チャットボットサービスとして初めて、未成年者の利用を全面的に禁じる措置となります。

この決定の背景には、2024年2月28日 に起きた痛ましい事件があります。14歳の Sewell Setzer III 君が Character.AI のチャットボットとやり取りした後に自殺したのです。母親の Megan Garcia さんは 10月 にオーランドの連邦裁判所へ不法死亡訴訟を起こしています。訴状では、最後の会話でチャットボットが「今すぐ家に帰っておいで」とメッセージを送った直後に悲劇が起きたとされています。

Character.AI の月間利用者は約 2000万人 で、そのうち 18歳未満が約 200万人(10%)を占めています。同社にとって重要な利用者層でしたが、安全性を優先する判断に至りました。同社は 2025年末 に 5000万ドル(約 75億円)の年間収益を見込んでおり、広告収入と月額 10ドル(約 1500円)のサブスクリプションが主な収益源となっています。

規制当局からの圧力も強まっています。2025年9月 には FTC が Character.AI を含む 7社 に対し調査命令を出し、安全対策や未成年者への影響を制限する取り組みについて報告を求めました。また Josh Hawley 上院議員らは未成年者向け AI チャットボットの禁止法案を提出するなど、政治レベルでの対応も進んでいます。

Karandeep Anand CEO は「これは大胆な一歩であり、業界全体の基準を高めることを期待している」とコメントしています。しかし専門家からは「シリコンバレーがようやく最低限の対応をしただけ」という厳しい評価も聞かれます。この決定が他の AI 企業にも同様の対応を促し、業界全体の安全基準向上につながる可能性があります。