AAnthropic社は、AIアシスタント(例えばClaude)が実際にどのように使われているかを分析し、世界中でAIの使われ方を明らかにする新しいプラットフォーム「Clio」を発表しました。このシステムは、プライバシーを厳密に保護しながら、AIの利用パターンや傾向を把握することを目的としています。
実際の活用例としては、2024年米国総選挙に関連するリスクの監視、AIチャットの不正使用パターンの早期発見などに成功しています。また、例えば、Claudeの実際の上位のユースケースとして、
- Web・モバイルアプリのコーディング(10.4%)
- コンテンツ制作(9.2%)
- 学術的なリサーチや論文作成(7.2%)
- 教育やキャリア形成(7.1%)
などであることがわかっています。
Clioが開発された背景には、AIの利用が急速に拡大する中で、AI利用の透明性向上、安全性向上、そしてプライバシーと倫理の両立という課題を解決する必要性がありました。Clioは、AIの利用に関する情報を提供するだけでなく、AI技術の進化や社会的な受容性を高めるための基盤としても期待されています。
確かにAIの活用実態をモニタリングするこうした機能は有益であると思います。ただ、最近Anthropicの機能拡張のスピードが他社に比べて遅れていることが気になります。開発スピードを取るか安全性を重視するか、AIの永遠のテーマですが、Anthropicは初期は、安全性を重視しながらもChatGPTとほぼ同様のリリースタイミングでChatGPTよりも高い応答精度を叩き出すことで一躍有名になった企業ですので、これからもそうしたいい競合関係を築ける会社であり続けてもらいたいと切に願います。