AI安全性の先駆者、Ilya Sutskever氏が新会社SSIを設立

投稿者:

OpenAIの共同創業者であり、元チーフサイエンティストのIlya Sutskever氏が、新たなAI企業「Safe Superintelligence Inc. (SSI)」を設立しました。この動きは、Sutskever氏がOpenAIを正式に退社してからわずか1ヶ月後に起こり、AI業界で話題となっています。

Sutskever氏は、元Y CombinatorパートナーのDaniel Gross氏、元OpenAIエンジニアのDaniel Levy氏と共にSSIを立ち上げました。新会社の使命は、「beneficial superintelligent AI(有益な超知能AI)」の開発に特化しており、Sutskever氏は「10年以内に実現する可能性がある」と考えています。

SSIの組織としての特徴は、商業的な世界からは一線を画した、純粋な研究組織であるという点です。OpenAIが商業製品に重点を置く方針にシフトしたのとは対照的に、SSIは純粋な研究組織として、短期的な外部のビジネス圧力から「完全に遮断された」形で運営される、とされています。この方針は、Sutskever氏がOpenAIで経験した、AI安全性へのアプローチをめぐるリーダーシップ(Sam Altman)との意見対立を反映しているようです。

Sutskever氏は長年、AIの安全性の問題に取り組んできました。2023年には、人間よりも知能の高いAIが10年以内に登場する可能性を予測し、業界に警鐘を鳴らしていました。SSIは、このビジョンを実現するために、AIの安全性と能力の向上を同時に行うことを目指しています。

資金調達については詳細が明かされていませんが、Gross氏は「我々が直面する問題の中で、資金調達は課題にならない」と述べており、業界の注目度の高さがうかがえます。また、SSIはパロアルトとテルアビブにオフィスを構え、すでに技術人材の募集を開始しています。

彼の考え方は非常に崇高なものですし、AI開発における安全性は重視されるべき、との思想は共感できます。ただし、金銭的なリターンが見えないものに対して資金が投入されないことも残酷な事実です。現在のAI開発競争においては、十分な資金がないと開発を前に進めることはできません。

果たして、そうした課題に対してSutskever氏をはじめとするSSIの創業者たちはどのように立ち向かっていくのでしょうか。具体的な動きはこれから明らかになっていくものと思われますので、注目して行方を見守りたいと思います。