OpenAIとAnthropicが、アメリカの国立標準技術研究所(NIST)内にある「AI安全研究所(U.S. Artificial Intelligence Safety Institute)」と、AIの安全性向上に向けて協力することになりました。
この合意により、AI安全研究所は、OpenAIやAnthropicが開発する新しいAIモデルを一般公開前にテストし、その機能や安全リスクを評価できるようになります。また、モデルの安全性向上のためのフィードバックも提供します。
この協力関係は、AIの安全性を確保し、責任ある開発を促進する上で重要な一歩とされています。AI安全研究所の所長は、この合意を「AIの未来を責任を持って見守るための重要な節目」と評価し、OpenAIのCEOは、アメリカがAI開発で主導的な役割を果たす必要性を強調しています。
この合意は、AIの安全性への懸念が高まる中で、バイデン政権が設立したAI安全研究所の活動の一環として締結されました。連邦政府や州政府がAI規制を検討する中、企業の自主的な協力に基づくこの合意は、急速に進化するAI技術に対応できる柔軟な協力関係を示すものとして注目されています。
アメリカAI安全研究所は、イギリスのAI安全研究所とも連携し、モデルの安全性向上に関する情報を共有する予定です。