Google が米国防総省(ペンタゴン)との契約を拡大し、AI モデル「Gemini」を機密軍事用途でも使えるようにしたことが明らかになりました。もともとペンタゴンの一般業務向けに締結された 2 億ドル(約 300 億円)規模の契約を改正したもので、作戦計画の立案や攻撃目標の選定といった高度に機密性の高い用途にまで使用範囲が広がっています。これにより Google は、軍事 AI の提供において OpenAI やイーロン・マスク氏率いる xAI と肩を並べる存在となりました。
契約上は「人による適切な監視なしに自律兵器や大規模監視には使わない」という条件が設けられています。しかし一方で、Google は「政府の軍事的意思決定に介入・拒否する権利を持たない」とも明記されており、実態として歯止めとなる仕組みは限られています。また、外部ネットワークから完全に切り離されたシステム上では、Google 自身がどのような用途に AI が使われているかを確認する手段がありません。
こうした契約内容が明らかになると、Google DeepMind や Cloud を含む各部門の社員 600 人以上が Sundar Pichai CEO 宛てに公開書簡を送りました。署名者にはディレクターや副社長クラスの幹部が 20 人以上含まれており、経営幹部レベルの反発という点でも異例の動きです。書簡では「機密用途への提供を断ることが、自社の AI が悪用されないことを保証する唯一の方法だ」と主張し、「この判断を誤れば、Google の信頼・事業・社会的役割に深刻なダメージを与える」と警告しています。
今回の契約拡大は、突然の方針転換ではありません。Google は 2025 年 2 月に AI 倫理原則を見直し、「兵器や人を傷つける技術には関与しない」という従来の方針を削除しています。この変更に対してはヒューマン・ライツ・ウォッチやアムネスティ・インターナショナルが批判声明を出しています。
振り返ると、2018 年にも AI を使ってドローン映像を分析する「Project Maven」への参加をめぐり、約 4,000 人の社員が反対署名をして Google が契約を手放した前例があります。今回の反発は人数こそ少ないものの、より上位の職位の社員が名前を連ねている点で、当時とは異なる重みがあります。
ペンタゴン側の AI 担当責任者、Cameron Stanley 氏は Gemini の活用によって「毎週、数千時間分の作業が削減されている」と評価しています。Google 経営陣の判断の背景にあるのは、「関与しなければ影響力もない」という考え方です。距離を置いて契約を断ったとしても、軍はいずれにしろ他社の AI を使うことになります。それよりも自社が当事者として関わり続けることで、技術の使われ方や安全基準の設計に発言権を持てる——そう見極めているとみられます。ただ、この論理には批判もあります。一度軍事用途に組み込まれた AI を後から制限することは現実的に難しく、「関与することで倫理を守れる」という主張が、事業拡大の後付けの理由になっていないかが問われています。
