Google DeepMind が警鐘を鳴らす AGI の 4 つのリスクと対策戦略

投稿者:

Google DeepMind が 2025 年 4 月 2 日、 AGI (人工知能汎用、 Artificial General Intelligence )の安全戦略を詳述した 145 ページにわたる大規模論文「 An Approach to Technical AGI Safety & Security 」を発表しました。この論文では、人間と同等の知能を持つ AGI が 2030 年までに実現する可能性や、その発展に伴うリスク、そして安全対策について包括的に論じています。

DeepMind の研究者らは、「 Exceptional AGI 」(熟練した成人の 99 パーセンタイルに匹敵する能力を持つ AGI )が 2030 年までに開発される可能性が高いと予測しています。この見解は、同社共同創業者で首席 AGI 科学者のシェーン・レッグ氏が主張してきた「 AGI の到達時期の中央値は 2028 年」や、 CEO のデミス・ハサビス氏の「 5 ~ 10 年以内」という発言とも一致しています。

論文では、AGIに関連するリスクを主に4つのカテゴリーに分類しています。第一に「悪用( Misuse )」で、AGIが悪意ある人物によってサイバー攻撃や詐欺などの有害な目的に使われる可能性。第二に「ミスアライメント( Misalignment )」で、AGIの目標が人間の意図とずれ、予期せぬ行動を引き起こす問題。第三に「事故( Accidents )」で、設計や訓練の不備により予期しない失敗が発生するリスク。そして第四に「構造的リスク( Structural Risks )」として、複数のAIシステムや人間集団の相互作用が、社会全体に深刻な影響を及ぼす可能性が挙げられています。

これらのリスクに対応するため、DeepMind は多層的な安全対策を提案しています。具体的には、悪用を防ぐためのアクセス制御やセキュリティ評価のフレームワークの整備、ミスアライメントを検出するための「増幅された監視」手法の導入、AGI の能力を段階的に展開する慎重なアプローチ、さらに意思決定プロセスの透明性と解釈可能性を高めるための研究などが含まれています。

論文では、競合する AI 研究組織である Anthropic や OpenAI のアプローチとの比較も行われており、 DeepMind は自社の安全戦略の包括性を強調しています。同時に、 AGI の安全な開発には国際的な協力が不可欠であるとし、研究コミュニティや政策立案者との対話を呼びかけています。

専門家からの反応は賛否両論で、安全性への取り組みを評価する声がある一方、より踏み込んだ対策の必要性や、現在の技術では AGI 実現が難しいとする意見も出ています。