OpenAI・Anthropic・Google の 3 社が、中国の AI 企業による技術の不正流用に対抗するため、業界団体「Frontier Model Forum」を通じた情報共有の仕組みを立ち上げました。2026 年 4 月 6 日に Bloomberg が報じたもので、同団体が具体的な実務目的で動き出すのは 2023 年の発足以来初めてのことです。
問題の核心にあるのは「敵対的蒸留攻撃(adversarial distillation)」と呼ばれる手口です。これは、競合他社が高性能な AI モデルに大量の質問を送りつけ、その回答データをもとに自社の低コストモデルを開発するというものです。最先端 AI モデルの開発には約 10 億ドル(約 1,500 億円)が必要なのに対し、この手口を使えばわずか 10 〜 20 万ドル(約 1,500 〜 3,000 万円)程度で類似品を作れてしまいます。莫大な開発投資を、ほぼタダで掠め取られる構図です。
被害の実態も明らかになっています。Anthropic は 2026 年 2 月、中国の AI 企業 3 社(DeepSeek・Moonshot AI・MiniMax)が約 2 万 4,000 件の偽アカウントを作成し、自社の AI「Claude」に 1,600 万回以上の問い合わせを行っていたと公表しました。そのうち MiniMax だけで約 1,300 万回と全体の 8 割超を占め、DeepSeek は回数こそ少ないものの、最も巧妙な方法で Claude を悪用し、中国政府向けの検閲システム構築に役立てていたとされています。
この問題が注目されるきっかけとなったのは、DeepSeek が 2025 年 1 月にリリースした推論モデル「R1」です。性能面で米国の最先端モデルと肩を並べると評価され、その衝撃から米欧のテクノロジー株は 1 日で約 1 兆ドル(約 150 兆円)分の時価総額が吹き飛びました。
今回の情報共有の仕組みは、サイバーセキュリティ業界でよく使われる脅威情報の共有モデルを参考にしています。ある企業が不審なアクセスパターンを検知したら、すぐに他社へ知らせる体制です。Anthropic はすでに中国資本の企業による Claude へのアクセスを全面的に遮断しています。
中国側は「証拠がない」と反論しており、今回の動きを技術競争への恐れが背景にあると批判しています。法的な対応も容易ではなく、AI の出力データは米国の著作権法では保護されないため、各社は利用規約違反としての訴訟を軸に対応を検討しています。今後 6 〜 12 ヶ月以内に、輸出規制の強化や中国企業への法的措置が現実のものとなりそうです。
