Anthropic、安全研究を組織化ー政府との対立が浮き彫りにした経営哲学

投稿者:

米 Anthropic 社は 2026 年 3 月 11 日、AI が社会に及ぼす影響を専門に研究する「 Anthropic Institute 」の設立を発表しました。共同創業者の Jack Clark 氏が公共便益担当の責任者として陣頭指揮をとり、約 30 名規模の社内シンクタンクとして発足します。組織の核となるのは、AI の安全性評価、社会への実装状況の分析、雇用・経済への影響調査という三つの専門チームです。初期メンバーには元 Google DeepMind 研究部長や経済学の第一人者が名を連ねており、Clark 氏は人員を毎年倍増させていく方針を示しています。

注目すべきは、この研究機関の設立計画が、国防総省との対立が表面化するより前の 2025 年 11 月には既に動き出していた点です。つまり Anthropic Institute は、政府との摩擦への対応策として生まれたわけではありません。むしろ、「どのような用途には応じて、どのような用途には応じないか」という自社の倫理的立場を、研究という形で社会に向けて継続的に説明・発信していく仕組みとして構想されたものです。今回、自律型兵器への利用拒否が政府との決裂を招きましたが、「なぜ拒否するのか」を客観的なデータと分析で示せる組織を持つことは、単なる広報活動を超えた戦略的な意味を持ちます。Clark 氏が「安全研究はコストではなく利益を生む投資だ」と言い切る背景には、こうした長期的な構想があります。

一方、米国政府との対立は深刻な段階に入っています。Anthropic は 2025 年 7 月に国防総省と 2 億ドル(約 300 億円)の契約を結んでいましたが、自律型兵器や国内監視への AI 活用を拒否したことで決裂。Pete Hegseth 国防長官は同社を「サプライチェーンリスク」に指定しました。米国企業に対してこうした指定が公式に行われるのは前例のないことで、業界関係者からは「中国のモデルにも適用されていない措置が、なぜ米国企業に使われるのか」と批判の声が上がっています。

Anthropicは 2026 年 3 月 9 日、この指定は不当な報復だとして連邦裁判所に提訴。失った契約額は既に 1 億 8,000 万ドル(約 270 億円)に上ると主張しています。 2026 年 3 月 26 日には担当判事が「典型的な言論の自由への報復」と認定し、仮差止命令を発令しました。ただし完全な解決には数カ月から数年かかる見通しです。

財務面では、こうした逆風のなかでも年換算収益( ARR )が 2025 年末の 90 億ドル(約 1 兆 3,500 億円)から 2026 年 3 月初頭には約 190 億ドル(約 2 兆 8,500 億円)へと倍増しています。モデルの開発・運用に 100 億ドル(約 1 兆 5,000 億円)以上を投じており収益性の確保はなお課題ですが、「安全性へのこだわり」が顧客からの信頼を着実に積み上げているとも読み取れます。政府との衝突すら、同社の価値観を市場に示す機会として機能しているといえるかもしれません。