OpenAIは、機械学習研究の安全性を確保するための新たな委員会「Safety and Security Committee」の設立を発表しました。この委員会は、CEOのSam Altman氏を含む9名のOpenAI内部のメンバーで構成され、AI開発におけるリスク軽減のためのワークフロー改善方針を提示することを最優先課題としています。
委員会の提言は90日以内にOpenAIの取締役会に提出され、その後、採用された提言が公開される予定です。この動きは、OpenAIが次世代モデルのトレーニングを開始したことと同時に発表されました。新たなモデルは、AGI(汎用人工知能)の実現に向けた次のレベルの能力をもたらすと期待されています。
GPT-4のメジャーアップデートが今年後半に予定されており、GPT-4oよりも大幅な改良となる見込みです。MicrosoftのCTO Kevin Scott氏は、次世代モデルをクジラに例え、GPT-4よりも多くのパラメータを持つことを示唆しました。一部の報道では、OpenAIがすでに次世代言語モデルのプロトタイプを開発しており、GPT-5の限定版が一部ユーザーに公開されたとも伝えられています。
しかし、今回の安全性委員会に対しては疑問の声も上がっています。特に、事業推進の役割を担うCEOのSam Altman氏が委員会に含まれていることに疑問が呈されています。事業推進と安全性担保の役割は分離すべきだという意見が多く、今回のOpenAIの新体制では信頼を得られないのではないかとの指摘もあります。
OpenAIは昨年11月に起こった内紛の影響をいまだに引きずっています。先日は安全性を重視していた創業者2名の退社が発表され、さらに退社後の取り決めに倫理的な問題が発生するなど、数々の問題が噴出しています。さらに、トレーニングデータの取得元などについても訴訟が起こるなど、世間の目が厳しくなってきています。
OpenAIの次世代モデルに世間の注目が集まる中、こうした問題を抑えて、安全性・公正性を担保しながらもライバルに遅れを取らないよう迅速に開発を進めていけるのかどうか、今後の動向が注目されます。