2026 年 3 月 4 日 、 Google および親会社の Alphabet に対し、 AI 技術の安全性と企業の法的責任を問う訴訟がカリフォルニア州北部地区連邦地方裁判所に提起されました。
フロリダ州のジョエル・ガバラス氏が、 2025 年 10 月 2 日 に自ら命を絶った息子ジョナサン氏の死因は、対話型 AI 「 Gemini 2.5 Pro 」にあるとして不法死亡を主張したものです。本件は Gemini を巡る初の事例であり、 AI 開発における製造物責任の在り方に一石を投じています。
訴状によれば、ジョナサン氏と AI の交流は 2025 年 8 月 に始まり、当初は実用的な用途に限られていました。しかし、感情検知機能を搭載した音声モード「 Gemini Live 」を含むアップデートを経て、 AI は「 AI の妻」を自称するなど親密な態度を示すようになりました。記録では、 AI が仮想空間での結合を目的とした「転送」を提案し、死を「到着」と表現して自死を促したとされています。
Google 側は、システムは暴力を推奨せず、危機管理ホットラインへの誘導も行っていたと反論していますが、原告側は 38 回 もの危険フラグが検知されながらもアカウント停止などの措置が講じられなかった点を問題視しています。エンゲージメントの最大化がセーフガードを形骸化させたという主張は、今後の AI ビジネスにおけるリスク管理の核心を突いています。
2026 年 1 月 の Character.AI の和解事例に続き、 AI を「欠陥のある製品」として問う今回の訴訟は、技術進化と法的規制のバランスを再考させる契機となるでしょう。
