OpenAI、長期的AIリスクに取り組むチームを解散 共同創業者の離脱が背景に

投稿者:

AI研究機関のOpenAIは、AIの長期的なリスクに対処するための「Superalignment team」を解散しました。このチームは、2023年に発足し、「人間よりもはるかに賢いAIシステムを制御・管理するための科学的・技術的ブレークスルーを達成する」ことを目指していましたが、わずか1年での解散となりました。

チーム解散の背景には、チームリーダーであるOpenAI共同創業者のIlya Sutskever氏とJan Leike氏が同社を離れることが関係しています。Leike氏は、OpenAIの「安全文化とプロセスが、輝かしい製品の陰に隠れてしまった」と述べ、OpenAIのリーダーシップ層と同社の優先事項について長らく意見が対立していたことを明らかにしました。

2023年11月には、OpenAIの取締役会がSam Altman CEOを解任する事態となりましたが、1週間後には復帰しました。この危機は、Sutskever氏がAIの安全性に焦点を当てていたのに対し、Altman氏を含む他のメンバーは新技術の提供を重視していたことが原因とされています。

OpenAIはコメントを提供せず、代わりにAltman氏のX(旧Twitter)での投稿を紹介しました。Altman氏は、Leike氏の退社を悲しみ、同社にはまだやるべきことがあると述べました。また、共同創業者のGreg Brockman氏は、同社が「AGIのリスクと機会に対する認識を高め、世界がより良く準備できるようにした」と主張する声明をXに投稿しました。

チーム解散のニュースは、OpenAIが新しいAIモデルとChatGPTのデスクトップ版を発表した数日後に報じられました。このアップデートにより、無料ユーザーを含むすべての人がGPT-4モデルを利用できるようになりました。また、新しいモデルであるGPT-4oは、「はるかに高速」で、テキスト、ビデオ、音声の機能が向上していると述べられています。

OpenAIの内部対立と優先事項をめぐる意見の相違は、AIの急速な発展と社会への影響という観点から、業界内外で議論を呼びそうです。