Metaは、画像と動画内の物体をリアルタイムで認識・分離するAIモデル「Segment Anything Model 2(SAM 2)」を発表しました。SAM 2は、動画内の対象物を追跡し続けることができるモデルです。学習データにない初見の物体やシーンにも対応可能で、対象が一時的に視界から消えた場合でも追跡を続けることができます。
補足した対象物に特殊なエフェクトを追加したり、消したりすることも可能です。(ウェブサイト内にデモ画像もあるので、それを見ると一目瞭然です。ぜひご覧ください。)
従来モデルと比べ、動画の追跡精度はそのままに処理速度は3倍に、画像内の処理は6倍に向上しています。動画編集の効率化やAR/VR体験の向上に加え、医療画像解析や災害時の衛星画像解析など、幅広い分野での活用が期待されます。
MetaはSAM 2のモデル、データセット、デモ、関連論文を全てオープンソースで公開され、研究者や開発者がこのモデルを自由に自社のアプリケーションに組み込むことができるようにしています。Metaは、またしてもオープンソースコミュニティに大きな貢献を果たしました。