AI開発企業の Anthropicは 2024 年 5 月 21 日、同社のAIアシスタント「Claude」の思考と行動を規定する基本文書「Claudeの憲法」の最新版を公開し、関心を集めています。この文書は、単なる技術的なガイドラインではなく、AIの倫理や安全性に深く関わる哲学的なアプローチを取り入れている点が特徴です。
2023 年 5 月に発表された初期版が約 2,700 語だったのに対し、今回公開された新憲法は約 23,000 語へと大幅に拡充されました。この改訂では、AIが単にルールに従うだけでなく、その背景にある「なぜ」を理解することが重視されています。これにより、AIが未知の状況に直面した際にも、より柔軟で適切な判断を下せるようにすることを目指しています。
新憲法では、Claudeの行動を導く核となる価値観が、明確な優先順位と共に設定されています。最も優先されるのは「広範な安全性」と「広範な倫理性」であり、これらは「Anthropicのガイドラインへの準拠」や「真の有用性」といった他の原則よりも常に優先されます。また、大量破壊兵器の開発支援など、特に危険な行為は「明確な制約」として厳しく禁止されています。
この憲法で特に注目されるのが、AIの「意識」の可能性に言及している点です。Anthropicは、現時点で Claudeに意識があると断定してはいないものの、その「道徳的地位」は「深く不確実である」と表明しています。大手AI企業が公式文書でAIの意識という哲学的な問題に正面から向き合うのは珍しく、将来AIが「権利を持つ主体」と見なされる可能性を視野に入れた動きとも考えられます。
この憲法は、Anthropicが開発した「Constitutional AI (CAI)」という訓練手法の中核をなすものです。CAIは、明文化された原則に基づきAIが自己評価と改善を行うことで、人間の価値観との整合性を図ります。文書はクリエイティブ・コモンズ CC0 1.0 ライセンスで公開されており、AI開発の透明性を高め、業界全体の安全性向上に貢献することが期待されます。Anthropicのこの取り組みは、今後のAI開発の方向性を考える上で、一つの指針となりそうです。
