米国防総省と Anthropic のAIの軍事利用にまつわる対立が表面化

投稿者:

米国防総省と AI スタートアップの Anthropic との間で、同社の AI モデル「 Claude 」の軍事利用を巡る対立が表面化しています。 2026 年 2 月、国防総省は Anthropic を「サプライチェーン・リスク」に指定し、取引関係を完全に解消する準備を進めていることが報じられました。通常、この指定は敵対的な外国勢力に関連する企業に適用される極めて厳しい措置であり、国防総省のピート・ヘグセス長官からダリオ・アモデイ CEO に対し、事実上の最後通告が行われたと見られています。

この緊張が一気に高まった背景には、 2026 年 1 月にベネズエラで実施されたニコラス・マドゥロ前大統領の拘束作戦があります。報道によれば、この作戦において国防総省の契約企業である Palantir のシステムを介して Claude が利用されましたが、 Anthropic の従業員がその利用方法について詳細な問い合わせを行い、将来的な利用制限を示唆したことが当局の反発を招きました。国防総省側は、作戦の成否に関わる重要な技術において、供給元の判断で運用が阻害される可能性があることを、安全保障上の深刻なリスクと見なしています。

対立の核心にあるのは、 AI 活用の「倫理的な一線」です。 Anthropic は、米国民に対する大量監視や、人間が関与しない完全自律型兵器への利用を厳格に禁じていますが、国防総省は「合法的なあらゆる目的」で利用できる権利を求めています。民間企業が独自の基準で軍事運用に制限を課すことは、国家安全保障上の柔軟性を損なうものであるというのが当局の主張です。一方で、 OpenAI や Google 、 xAI といった競合他社は、すでに軍事利用を全面的に認める方向で合意しており、 Anthropic の孤立が鮮明になっています。

もし同社が正式に「サプライチェーン・リスク」として指定されれば、最大 2 億ドル(約 310 億円)規模の直接契約を失うだけでなく、米軍と取引のある全ての企業との提携解消を迫られる可能性があり、経営面で甚大な打撃を受けることになるでしょう。

この問題は、 AI 企業の倫理観と国家の軍事的要請が正面から衝突した象徴的な事例として、業界全体の規制の在り方に問いを投げかけています。 Anthropic が自社の原則を維持して市場からの排除を受け入れるのか、あるいは政府との妥協点を見出すのか、今後の動向が注視されます。