OpenAIとGoogle DeepMindの現役および元従業員13名が、AIの危険性について警告する公開書簡を発表しました。この書簡では、AIを開発している企業が利益を優先し、リスクや監視を軽視していると主張しています。
書簡では、AIシステムが適切に規制されない場合、深刻な危険をもたらす可能性があると指摘しています。しかし、現実にはAI企業にはそもそも開示義務がないため、リスクに関する情報を持っているにもかかわらず、それを秘密にしてしまっているとのことです。また、そうした企業に働く従業員は企業に責任を負わせることができる唯一の存在でありながら、守秘義務契約によって発言が制限されていると訴えています。
この書簡には、AI分野の著名な研究者であるYoshua Bengio氏、Geoffrey Hinton氏、Stuart Russell氏も賛同しています。彼らは、AI企業に対し、従業員の発言を制限する契約の停止、従業員が匿名で懸念を表明できるプロセスの構築、批判にオープンな企業文化の支援、リスク関連の機密情報を共有した従業員への報復を行わないことなどを要求しています。
OpenAIの社内では、以前よりAIのリスクに対する関心の低さが指摘されており、今回の書簡に署名した11名がOpenAIの関係者であることを見ても、昨年秋から続く内紛の火種がまだくすぶっているようにも見えます。開発や新製品のリリースに注力する一方で、リスクについてはあまり考慮しない社内風土が醸成されているのかもしれません。
専門家は、現時点でAI企業に対する安全性テストやサイバーセキュリティ要件などの義務付けが不足していると指摘しています。そもそもこうした規制は各国政府が行う必要がありますが、政府は(AI規制に向けて動いているものの)AIの進歩の速さに追いついていないのが現状です。また過度に規制をしてしまうと成長している産業の進展を抑制してしまうことにもなりかねず、どの範囲で規制をするのが適正かは見極めが難しいところです。