AI研究の最前線に立つOpenAIが、2023年に社内メッセージシステムへのハッキング被害を受けていたことがNY Timesの記事により明らかになりました。AI設計に関する技術情報が盗まれましたが、GPTのコードやユーザーデータは無事だったとのことです。
問題は、OpenAIがこの攻撃を一般やFBIに通知せず、ユーザーやパートナーデータが盗まれなかったことを理由に隠蔽していたことです。従業員や役員には開示されていましたが、外部への公表は行われませんでした。
OpenAIは、この攻撃を国家安全保障上の脅威とは考えておらず、攻撃者は外国勢力と関係のない個人であると考えています。しかし、AIはすでに国力の増減に関わる技術となっており、中国などアメリカが敏感になっている国からのアクセスもできてしまうことが明るみに出たことは、大きな問題と言えるでしょう。
元従業員は以前からOpenAIのセキュリティ体制に懸念を表明していましたが、解雇されています(OpenAIは解雇理由との関連性を否定)。この事実は、OpenAIの組織としての成熟度の低さを示唆しています。
ChatGPTは2022年11月のデビュー以来、度々ハッキングの標的となっており、ユーザー名やパスワード、支払い情報などが漏洩したこともありました。OpenAIはセキュリティ対策を強化し、不正アクセスやモデルの誤用を防ぐための安全対策を追加し、安全保障委員会を設置しましたが、今回の隠蔽問題はこれらの取り組みの実効性に疑問を呈するものです。
AIは、経済、軍事、社会に大きな影響を与える戦略的技術であり、その開発を担う企業には高い透明性と説明責任が求められます。特に、OpenAIのようなAI分野のリーディングカンパニーは、セキュリティインシデントに対して迅速かつ適切に対応し、ステークホルダーに正確な情報を提供する必要があります。
今回の事件は、OpenAIの情報管理体制の脆弱性を浮き彫りにしただけでなく、AIの安全性と信頼性に対する社会の懸念を高めることにもつながりかねません。OpenAIは、この問題を真摯に受け止め、組織の在り方を根本的に見直す必要があるでしょう。