Anthropic は 2025 年 6 月 6 日、米国の防衛・情報機関向けに特化した AI モデル「 Claude Gov 」を発表しました。従来の Claude シリーズをベースに開発されたこのモデルは、国家安全保障分野での利用を前提として設計されており、機密情報の処理やサイバーセキュリティ分析など、政府機関の特殊なニーズに対応しています。
Claude Gov の最大の特徴は、機密情報を扱う能力の向上です。一般向けのモデルでは機密性の高い質問に対して自動的に回答を拒否することが多いのに対し、 Claude Gov はそうした「拒否率」を大幅に下げています。これにより、防衛・情報機関が日常的に扱う機密データや文書を、より効率的に分析できるようになりました。
安全性の面でも、政府用途に合わせた調整が施されています。兵器開発や悪意のあるサイバー攻撃、偽情報の拡散といった危険な用途への悪用を防ぐ制限は維持されている一方で、国家安全保障の観点から必要な場合には、一部の制限が緩和される仕組みになっています。また、データの保持を行わないゼロリテンション機能や厳格なアクセス制御など、高度なセキュリティ対策も導入されています。
技術的な進歩も注目されます。防衛・情報分野で使われる専門的な文書やデータの理解力が強化されており、国家安全保障上重要な外国語や方言の処理能力も向上しています。さらに、サイバーセキュリティ関連のデータ解釈や、リアルタイムでの脅威分析、戦略的な意思決定をサポートする機能も備えています。
Claude Gov の開発には、実際の米国政府機関からのフィードバックが活用されており、すでに最高レベルの政府機関での運用が始まっています。具体的な導入先や運用期間は公表されていませんが、実際の現場のニーズに基づいて最適化されている点が特徴です。
この発表は、 AI 業界における政府向けサービスの競争激化を示しています。 OpenAI は「 ChatGPT Gov 」を提供し、 Microsoft や Google も防衛関連の AI ソリューション開発を進めています。 Anthropic も Palantir や AWS と連携し、2024 年 11 月から政府向け Claude の提供を開始していましたが、 Claude Gov はさらに特化したサービスとなります。
一方で、 AI の政府利用には課題も指摘されています。誤った分析が重大な結果を招くリスクや、バイアスによる不公正な判断、社会的弱者への影響など、倫理的な懸念が存在します。 Anthropic は「 Constitutional AI 」という独自の枠組みを用いて、倫理的なガイドラインをモデルに組み込み、悪用防止に努めているとしています。
政府契約は AI 企業にとって安定した収益源となるため、今後も同様の動きが続くと予想されます。